Post

Guida al caso Facebook-Cambridge Analytica: gli errori del social, la reale efficacia dell’uso dei dati e il vero scandalo

22 Marzo 2018 24 min lettura

author:

Guida al caso Facebook-Cambridge Analytica: gli errori del social, la reale efficacia dell’uso dei dati e il vero scandalo

Iscriviti alla nostra Newsletter

17 min lettura

Il caso Facebook-Cambridge Analytica

L’annuncio giunge inaspettato. “Abbiamo sospeso Strategic Communication Laboratories (SCL), inclusa la sua compagnia di data analytics a scopi politici, Cambridge Analytica, da Facebook”, tuona un comunicato diramato giovedì 16 marzo dalla Newsroom del social network di Mark Zuckerberg. Insieme all’azienda, di cui molto si era già letto in relazione a un presunto ruolo nelle campagne per Brexit e Donald Trump, la piattaforma sospende anche uno psicologo, Aleksandr Kogan, e una figura in quel momento completamente sconosciuta all’opinione pubblica: Christopher Wylie, dell’altrettanto sconosciuta “Eunoia Technologies”.

Leggi anche >> Chi è Cambridge Analytica e come usa le tracce digitali dei cittadini online

I toni sono inusualmente fermi. “Ci impegniamo con forza a far rispettare le nostre policy per proteggere le informazioni degli utenti. Prenderemo qualunque misura necessaria sia richiesta affinché ciò accada”. Compresa, si legge, la via dell’azione legale per qualunque comportamento illecito sia stato compiuto.

Facebook sembra si stia preparando a una tempesta che, tuttavia, all’orizzonte ancora non si intravede. Parla di una app, “thisisyourdigitallife”, che consentiva ai partecipanti che l’avrebbero installata di compilare un semplice test di personalità. Kogan, come ogni sviluppatore, aveva chiesto di poter accedere ai dati di quegli utenti. Lo scopo dichiarato è fare “ricerca", e Facebook approva.

Nel 2015, tuttavia, la piattaforma scopre che Kogan avrebbe passato i dati raccolti dai 270 mila partecipanti proprio a Cambridge Analytica e a Wylie, violando le condizioni di utilizzo del social network, che impediscono la vendita a terze parti o l’uso a scopi pubblicitari di dati raccolti a scopi accademici. Non solo: Kogan avrebbe anche mentito, così come Wylie e Cambridge Analytica, sostenendo di avere eliminato i dati illecitamente trasferiti. “Diversi giorni fa”, scrive quel giovedì prima della bufera il VP & Deputy General Counsel, Paul Grewal, “abbiamo ricevuto notizia del fatto che, contrariamente alle certificazioni che ci erano state date, non tutti i dati sono stati distrutti”.

Di quali notizie parli Grewal è chiaro poche ore dopo, quando l’Observer e il New York Times pubblicano le confessioni di Wylie, causando una tempesta mediatica di ordine perfino superiore a quella prevista da Facebook.

Negli articoli si scopre che Wylie è in realtà un ex impiegato di Cambridge Analytica. E che gli utenti coinvolti a loro insaputa nelle operazioni della società tramite il test di Kogan sono molti di più: oltre 50 milioni. Ovvero, anche tutti gli “amici” su Facebook di chi aveva autorizzato e usato “thisisyourdigitallife” — in buona parte, microlavoratori reclutati sulla piattaforma Mechanical Turk di Amazon, dietro un compenso irrisorio: un dollaro. “Abbiamo sfruttato Facebook per raccogliere i profili di milioni di persone”, dice Wylie al giornale londinese. “E costruito modelli per sfruttare ciò che sappiamo di loro e colpire i loro demoni interiori. È questa la base su cui l’intera azienda”, Cambridge Analytica, “è stata costruita”.

A riprova di quanto afferma, l’Observer scrive di avere ricevuto da Wylie “mail, fatture, contratti e trasferimenti bancari che rivelano la raccolta di oltre 50 milioni di profili Facebook, perlopiù appartenenti a votanti registrati negli Stati Uniti”. Il New York Times aggiunge la conferma da colloqui con “mezza dozzina di ex impiegati e contractor” della società. Inoltre, dai documenti analizzati dal quotidiano newyorkese emerge che Kogan sarebbe stato convinto proprio da Wylie — dietro un compenso di 800 mila dollari — a raccogliere quei dati per Cambridge Analytica, ottenendo anche di poterne tenere copia per i propri studi.

Per il domenicale del Guardian si tratta di “uno dei più imponenti data breach di sempre” sul social network. Una definizione che Facebook si affretta a contestare, minacciando azioni legali e sostenendo — anche tramite gli interventi su Twitter del Chief Security Officer, Alex Stamos, e dell’ex VP of ads, Andrew Bosworth — che nessun sistema informatico è stato compromesso, nessuna password o informazione rubata o hackerata. “Gli utenti hanno scelto di condividere i loro dati con app di terze parti”, scrive “Boz”, “e se quelle app di terze parti non hanno rispettato gli accordi circa i loro dati con noi e con gli utenti è una violazione”.

https://twitter.com/boztank/status/975018461997887494

“La possibilità di ottenere dati degli amici tramite API” — Application Programming Interface, l’insieme di strumenti forniti a un programmatore che intenda realizzare una applicazione, in questo caso per Facebook — “con il permesso dell’utente era dettagliata nelle nostri condizioni di utilizzo”, scrive Stamos in un thread Twitter poi da lui stesso rimosso, contestando l’uso della definizione da parte di Guardian e Times. “Possiamo condannare” il comportamento di Kogan e Cambridge Analytica “dandone al contempo una descrizione accurata”.

Una discussione importante, che porta allo scoperto quella che si rivelerà essere la questione di fondo sollevata dai “Cambridge Analytica Files”: gli utenti di Facebook sono davvero consapevoli di con chi stanno condividendo i loro dati quando accettano le condizioni di utilizzo del social network e delle applicazioni scaricate al suo interno? E soprattutto: Facebook stesso è in grado di sapere chi finisce per ricevere e analizzare i dati dei propri utenti — e di proteggerli, nel caso fossero ottenuti in violazione delle sue stesse regole? Va sottolineato in ogni caso che Facebook non vende i dati né li ha mai venduti come è ben spiegato in questo articolo di Techdirt.

Leggi anche >> Come modificare le impostazioni di Facebook per evitare che i nostri dati siano condivisi da terzi

È ponendosi quest’ultima domanda che si comprende davvero il gioco d’anticipo tentato da Facebook — la cui tempistica lascia pensare a un tentativo di depotenziare le rivelazioni che sarebbero emerse di lì a poco — prima dello scoppio dello scandalo. Tra i documenti forniti da Wylie ai giornali e alle autorità britanniche e statunitensi, infatti, ci sarebbe anche una lettera che gli avvocati del social network avevano inviato al “whistleblower” nell’agosto 2016, in cui gli chiedevano proprio di distruggere i dati ottenuti tramite Kogan e la sua Global Science Research (GSR).

Significa che Facebook aveva ben noto il problema, da almeno due anni. E allora cosa aspettava per sospendere Cambridge Analytica dalla piattaforma? Cosa per intervenire, notificando agli utenti l’abuso subito, e al pubblico l’esistenza di soggetti intenti a raccogliere dati di milioni di persone a scopi di profilazione politica?

Secondo l’Observer, infatti, la lettera raggiunge Wylie mentre è in viaggio, e resta senza risposta per settimane. Ancora, il social network non si sarebbe assicurato della rimozione dei dati incriminati con verifiche informatiche puntuali, anche sul suo computer. “A mio parere”, dice Wylie, “è stata la cosa più incredibile. Hanno aspettato due anni senza fare assolutamente nulla per assicurarsi che i dati fossero stati cancellati. Tutto ciò che mi hanno chiesto di fare è stato mettere una spunta a una casella in un form, e rispedirlo”.

Affermazioni che fanno il paio con quelle di Sandy Parakilas, ex privacy manager di Facebook, al Washington Post prima e al Guardian poi, secondo il quale durante i suoi 16 mesi di permanenza all’interno dell’azienda, tra il 2011 e il 2012, non sarebbe mai stato svolto un solo audit degli sviluppatori. La piattaforma si sarebbe al contrario “fidata della parola data da Kogan e Cambridge Analytica”. Parakilas era responsabile del controllo proprio dei “data breach” da parte di sviluppatori software di terze parti, per cui avrebbe dovuto essere di certo informato di eventuali contromisure adottate.

Che invece sono mancate, e sistematicamente, a suo dire. “La mia preoccupazione”, ha dichiarato al Guardian, “era che tutti i dati in uscita dai server di Facebook verso gli sviluppatori non potessero essere monitorati da Facebook, così da non avere idea di cosa quegli sviluppatori stessero facendo con quei dati”. Come Wylie, Parakilas è lapidario: il controllo era “zero”, “assolutamente nessuno”.

Il metodo Cambridge Analytica

Wylie fornisce una visione di più ampio respiro di cosa sia, davvero, Cambridge Analytica. Parla di un’arma nella guerra culturale lanciata da Steve Bannon, ex vicepresidente della compagnia ma soprattutto ex consigliere di Trump, all’establishment. Del tentativo di fare a pezzi la società dividendola, menzogna dopo menzogna, così da poterla ricostruire nel modo da lui desiderato. Dice che l'azienda stava “giocando con la psicologia di una nazione intera, senza il suo consenso né la sua consapevolezza”, e che lo stava facendo “nel contesto del processo democratico”.

Una guerra senza esclusioni di colpi. Per Trump, i dirigenti di Cambridge Analytica, filmati di nascosto da Channel 4, vantano di avere fatto tutto: “Tutta la campagna digitale, tutta la campagna televisiva e i nostri dati hanno informato l’intera strategia” — un’affermazione che sembra in contrasto con quanto dichiarato da Brad Parscale e dalla campagna stessa di Trump, secondo il quale invece i dati di Cambridge Analytica si erano rivelati meno utili di quelli elaborati dal comitato repubblicano, tramite i soli registri dei votanti.

Sui social, in particolare, Cambridge Analytica vanta la creazione del brand “Crooked Hillary”, diffuso tramite il super-PAC Make America Number 1, ma anche la più generale creazione di canali non ufficiali attraverso cui diffondere, senza essere tracciabili, contenuti negativi sulla rivale, il tutto lasciando quelli ufficiali a contenuti positivi sul candidato Trump.

Ma c’è molto altro. L’uso del sistema di mail sicure, Protonmail, per creare e inviare messaggi che si autodistruggono entro due ore, rendendo così vane le inchieste a posteriori delle autorità; il ricorso a mezzi più tradizionali di distruzione dell’avversario — tentativi di corruzione deliberatamente filmati per poi essere diffusi, lo sfruttamento di prostitute per costruire situazioni compromettenti, il ricorso a informazioni ottenute dall'intelligence israeliana — accompagnati tuttavia da una sapiente manipolazione della viralità online: “Non facciamo altro che inserire informazioni nel flusso di Internet, e poi guardarle crescere, dando una spintarella di tanto in tanto… come un controllo a distanza”.

Propaganda che non sembra tale, insomma. Celata dietro identità fasulle e siti fasulli, mascherata da attività di progetti di ricerca universitari o di turisti. “Deve accadere senza che nessuno pensi: ‘è propaganda’, perché nel momento in cui pensi che ‘questa è propaganda’ la domanda successiva è: ‘chi l’ha diffusa?’”, dice in video il managing director, Mike Turnbull. Quanto alla verità dei contenuti diffusi, non è indispensabile, aggiunge il CEO - ora sospeso - Alexander Nix: “Basta che ci si creda”.

Tutto questo sarebbe avvenuto per “oltre duecento elezioni nel mondo”. Anche in Italia, scrive il sito della società, sarebbe stato coinvolto un non identificato “rinascente partito che aveva avuto successo l’ultima volta negli anni 80”.

Ma è l’uso, spregiudicato, dei Big Data per influenzare il comportamento di voto la vera pietra dello scandalo che colpisce l'azienda britannica. Sul proprio sito, così come in diverse presentazioni pubbliche, Cambridge Analytica si rivolge ai potenziali candidati politici interessati a fare ricorso ai suoi servizi di “fornire i dati e le analisi necessarie a portare i vostri elettori alle urne e vincere la vostra campagna”. Come? “Attraverso una combinazione di analisi predittive, scienze cognitive, e tecnologia pubblicitaria data-driven”, ossia personalizzata, mirata alle necessità di ogni singolo elettore — specie di quelli incerti nei contesti in bilico. Negli USA, per esempio, i 40 mila in tre Stati che avrebbero deciso la vittoria di Trump.

“Con fino a 5mila data point”, cioè aspetti biografici, sociali, economici e soprattutto inerenti la personalità (“psicografici”), “su oltre 230 milioni di elettori americani, siamo in grado di costruire il vostro pubblico bersaglio personalizzato, e poi utilizzare queste cruciali informazioni per stimolarli, persuaderli e motivarli ad agire”.

È questo il cuore della “guerriglia psicologica” di cui Wylie parla all’Observer. Ed è per questo che c’è bisogno dei dati di Facebook: l’idea è derivare migliori profili degli individui, e addirittura influenzare il comportamento dell’intero algoritmo di Facebook, tramite lo studio dei “like”, delle preferenze espresse, delle reti sociali stabilite sul social network, perfino — pare, anche se lo stesso Wylie suggerisce senza confermare — dei messaggi privati di ogni singolo utente.

Cambridge Analytica, da parte sua, nega di avere mai fatto ricorso a dati di Facebook. Lo nega anche di fronte alle autorità britanniche, che infatti ora vogliono vederci (molto) più chiaro.

È tramite questo tipo di profilazione, che somma la metodologia OCEAN - da anni in uso in psicologia e nel marketing per definire i tipi di personalità umana secondo cinque parametri (“Openness”, “Consciousness”, “Extroversion”, “Agreeableness” e “Neuroticism”) - ai Big Data, che si vincono le elezioni, dice in sostanza Cambridge Analytica.

Cosa ciò significhi in concreto è reso evidente grazie alle informazioni ottenute dal docente della Parsons School of Design di New York, David Carroll, autore di una richiesta di accesso ai dati in Gran Bretagna: valutazioni tra 1 e 10 di tratti distintivi come l’interesse per i migranti, per le armi, l’ambiente e la sicurezza nazionale, ma anche di attributi più vaghi e inquietanti, come l’importanza di “valori sociali e morali tradizionali” e “diritti civili socialmente progressisti”. Il tutto senza alcuna trasparenza sui criteri adottati per la classificazione.

Che tarare la propaganda su fattori come questi modifichi in qualche modo i comportamenti di voto, o addirittura decida l’esito elettorale, è tuttavia questione finora estremamente controversa - se non più smentita che confermata - nella letteratura di settore. L’efficacia del cosiddetto “microtargeting” politico, cioè della personalizzazione dei messaggi di propaganda ai desiderata del singolo elettore, è ancora poco nota. Ma svariati esperti, e diversi studi, tendono a contestarla.

A Cambridge Analytica fa comodo dire il contrario — è il prodotto che vendono, dopotutto — ma non c’è prova che Channel 4 nei suoi servizi dica il vero quando afferma che “i metodi di microtargeting vantati dall’azienda sono stati decisivi per la vittoria di Trump”, che la nostra sia una “nuova era di guerriglia politica” di cui “i social media sono il campo di battaglia cruciale”, e neppure che Cambridge Analytica “abbia usato il microtargeting con la massima efficacia, inducendo gli elettori a saltare sul carro di Trump con un social media blitzkrieg” — dal gergo della Seconda Guerra Mondiale, un insospettabile e coordinato attacco lampo — fatto di “memi, video e messaggi”.

Certo, le cronache su Cambridge Analytica non mancano di ricordare i risultati ottenuti da Michal Kosinski dal solo studio dei “like” su Facebook nella predizione di tratti degli utenti. Per esempio, che basta sommarli ai dati demografici e ai test psicometrici di 58mila individui per ottenere un modello che distingue correttamente, nell’85% dei casi, democratici e repubblicani, nell’88% omosessuali ed eterosessuali, nel 95% tra afro-americani e caucasici. Bastano 65 “like” per riuscirci. Con 70, scrivono Hannes Grassegger e Mikael Krogerus, si può sapere del bersaglio più di quanto ne sa un amico. Con 150, più di quanto ne sanno i genitori. Con 300, più della compagna o del compagno.

Ancora, tramite tre esperimenti che hanno esposto 3,5 milioni di persone a pubblicità individualmente mirata, che “tarare il contenuto di appelli persuasivi alle caratteristiche psicologiche degli individui ha modificato in maniera significativa il loro comportamento”, misurato in click e acquisti — aumentando, nel caso di messaggi mirati a soggetti estroversi — del 40%, i primi, e del 50%, gli acquisti.

Non stupisce dunque che, come riportano Grassegger e Krogerus, nel 2014 Kosinski sia stato approcciato da Kogan, che tentava di accedere ai dati da lui raccolti per conto di SCL, e dunque di Cambridge Analytica. Kosinski, che già nei suoi lavori avvertiva sui potenziali nocivi usi delle sue scoperte, dopo qualche ricerca decide di interrompere i rapporti con Kogan.

Ma di nuovo, tutto questo ci dice poco sulle scelte politiche, non esattamente sovrapponibili a quelle commerciali. Del resto, è quanto all’incirca dice lo stesso Kogan oggi. Intervistato dalla CNN, dopo aver sostenuto che Wylie lo ha convinto che dare i suoi dati a Cambridge Analytica non violasse le policy di Facebook, ammette di avere inizialmente fatto affidamento su un modello altrui — tradotto, di Kosinski — ma che quando poi si è messo ad analizzarlo davvero, ha compreso che non funzionava. “Ciò che abbiamo scoperto”, dice, “è che i dati non erano affatto accurati a livello individuale”.

“Anche se Cambridge Analytica avesse davvero influenzato la campagna di Trump del 2016”, scrive infatti The Verge in un articolo che cerca di giungere a qualche conclusione puntuale interpellando ricercatori e studiosi della materia, “tutto ciò che sappiamo sul microtargeting politico suggerisce che il suo ruolo sia stato insignificante”.

Dopotutto, come è noto da fine 2015, lo stesso metodo è stato applicato alle primarie repubblicane per Ted Cruz, e sappiamo come è andata a finire. Lo stesso articolo nota peraltro come lo staff di Cruz avesse definito “inaffidabili” i modelli psicografici di cui si era servito: “più di metà dei votanti nell’Oklahoma che Cambridge (Analytica, ndr) aveva identificato come sostenitori di Cruz erano in realtà a favore di altri candidati”.

Secondo Eitan Hersh, autore del volume ‘Hacking the Electorate’, il caso Cambridge Analytica non aggiunge nulla ai “forti limiti” evidenziati nel libro circa l’efficacia del microtargeting nelle campagne politiche. Anzi, qualunque affermazione in senso contrario di o su Cambridge Analytica è una “sciocchezza”, ha scritto su Twitter.

Ricerche citate da Brendan Nyhan del Darthmouth College sempre sul social network ricordano che lo strumento difficilmente ottiene effetti persuasivi. “I nostri risultati suggeriscono che i votanti raramente preferiscono seduzioni mirate a messaggi di carattere generico e che i votanti “mistargeted”, per cui cioè — come nel caso di Cruz — si sbaglia la personalizzazione dei messaggi, “penalizzano i candidati abbastanza da eliminare i guadagni positivi ottenuti con il targeting”, scrivono Hersh e Brian Schaffner in un saggio del 2012. “In teoria”, aggiungono, “il targeting può consentire ai candidati di promettere in modo opaco benefici particolari a pubblici ristretti, alterando così la natura della rappresentanza politica, ma i votanti sembrano preferire essere sollecitati sulla base di principi più ampi e di benefici collettivi”.

Un altro studio del 2016, condotto da Sanne Kruikemeier, Mime Sezgin e Sophie Boerman aggiunge una ulteriore conclusione, seppur provvisoria: che “i cittadini sembrano resistere a contenuti personalizzati quando si accorgono dell’etichetta ‘Sponsored’ e, di conseguenza, è meno probabile condividano le ads personalizzate con gli altri. In altre parole”, chiariscono gli autori, “i cittadini sembrano comprendere le tecniche usate su Facebook e questo può generare resistenza verso il contenuto pubblicitario. Così, ciò che appare come un’opportunità — personalizzare la pubblicità per raggiungere possibili elettori — può in pratica non essere sempre un beneficio”.

Non solo. Il già citato articolo di The Verge elenca una serie di argomenti molto seri, da considerare nella valutazione dell’efficacia del microtargeting politico. Prima di tutto, il fatto che le preferenze cambino nel tempo — già evidenziato da Kosinski tra i limiti della sua ricerca — e che dunque o le strategie personalizzate cambiano altrettanto velocemente, o non servono più. Ancora, che un modello che funziona per una campagna può non funzionare per un’altra. I “like”, poi, possono mentire: essere messi senza che la pagina che li riceve ci piaccia davvero, per esempio; e che fare quando i “mi piace” indicano preferenze contraddittorie — come una pagina di un leader conservatore e di un leader progressista? E quanti “like” si possono davvero computare in modo utile? Quanti ci parlano di preferenze che non possono essere sfruttate a fini di manipolazione politica? E quanti sono il retaggio di preferenze passate, ormai dimenticate?

Ancora, non è detto che i tratti della personalità siano poi così collegati con le preferenze politiche — anche questo, un assunto mai messo in discussione dalla ricerca psicografica così come venduta da Cambridge Analytica.

Riassume Nyhan in un’analisi per il New York Times: “Un crescente numero di studi conclude” che “la maggior parte delle forme di persuasione politica sembra avere scarso effetto”. Il che non significa che le tecniche adoperate da Cambridge Analytica oggi, dalla sua nuova metamorfosi Emerdata o dai suoi concorrenti — tra cui la società, di due ex membri, scovata da BuzzFeed, Genus AI, e chissà quante altre — non vadano approfondite. Solo che è bene distinguere tra le grandiose affermazioni dei dirigenti dell’azienda al centro dello scandalo e la realtà. Come dice il ricercatore di Amsterdam, Tom Dobber, a The Verge, Cambridge Analytica potrebbe essere “migliore come compagnia di marketing che come compagnia di targeting”. Quello che vende, nelle parole di Kogan alla CNN, non è tanto un prodotto, quanto un “mito”: quello di vincere le elezioni con i soli dati.

Il vero scandalo

Questa breve rassegna della letteratura ci insegna che, specie quando si indagano fenomeni di questa complessità, è bene tenere a mente che le conclusioni — “è un pericolo per la democrazia!” — non possono essere contenute nelle premesse, ma vanno faticosamente corroborate con dati, argomenti e ricerche. A maggior ragione se oggi, come scrive Jonathan Albright del Tow Center for Digital Journalism della Columbia, "la politica è diventata la forma più importante di giornalismo tecnologico”, ciò comporta studio, fatica, e un sano scetticismo verso chiunque tragga conclusioni affrettate senza conoscere nel dettaglio le sfide portate alla nostra comprensione da casi come quello di Cambridge Analytica.

Ma se il microtargeting non distrugge necessariamente la democrazia, o elegge i “populisti”, dove sta lo scandalo? Perché solo ora si mobilitano con tanta fermezza, e toni apocalittici, il Parlamento Europeo, le autorità USA e del Regno Unito, chiedendo che Zuckerberg venga di persona a testimoniare? Perché è in questi giorni che il titolo di Facebook brucia — temporaneamente — decine di miliardi in Borsa? Perché #DeleteFacebook diventa trending su Twitter, e si moltiplicano gli appelli ad abbandonare il social network? Non tanto per i dettagli, quasi tutti già emersi in precedenti articoli, pubblicati a partire dal 2015 in poi.

Non è nuova la denuncia di avere sfruttato un test psicologico per raccogliere i dati degli utenti di Facebook, e dei loro amici. L’attività di Kogan — insieme a un “obiettivo dichiarato di arrivare quanto più vicino possibile a ottenere ogni utente di Facebook negli Stati Uniti” — per conto di Cambridge Analytica risale a un articolo del Guardian di dicembre di quell’anno, proprio sulla campagna di Cruz. Nello stesso pezzo si parla del ricorso ai microlavoratori su Mechanical Turk, si mostra in un grafico il metodo attraverso cui passare dai dati Facebook dei partecipanti a modelli comportamentali su “oltre 40 milioni” di utenti, appaiono le stesse aziende — SCL, GSR — e le stesse nozioni sulla profilazione psicografica (OCEAN).

È allora che è cominciata l’indagine di Facebook per accertarsi che non ci fossero usi impropri dei dati dei suoi utenti e in cui si profila — anche se come ipotesi — la rimozione di Cambridge Analytica dalla piattaforma e la richiesta di distruggere i dati impropriamente ottenuti che oggi sappiamo non essere probabilmente andata a buon fine.

È allora che, come apprendiamo da “Boz”, Facebook dà corso a una "azione legale”.

Un successivo articolo di The Intercept aveva ribadito il tutto a marzo 2017, aggiungendo che anche Amazon aveva rimosso la richiesta di microlavoro di Kogan dalla sua piattaforma, Mechanical Turk appunto, di nuovo per violazione delle condizioni di utilizzo. Gli utenti, amici dei partecipanti al suo quiz, sono secondo una fonte 30 milioni, ma viene riportata anche notizia di un talk dato dallo stesso Kogan — poi “Spectre” — a Singapore, nel tardo 2014, dove è lui stesso a parlare, come oggi Wylie, di “un campione di oltre 50 milioni di individui di cui abbiamo la capacità di predire virtualmente ogni tratto”.

Ancora, la questione del microtargeting a usi politici non nasce con Cambridge Analytica, ma con la campagna del 2012 di Barack Obama. Allora si parlava di “Big Data”, e buona parte della copertura mediatica — con alcune lodevoli eccezioni — lo faceva non nei termini distopici di oggi, ma mostrando un incomprensibile entusiasmo.

Per rendersene conto, basta guardare questo segmento della CNN, risalente proprio all’anno della rielezione del presidente democratico. “Migliaia di persone si erano iscritte a una app Facebook per la campagna”, spiegava Michael Schaerer. “Una volta iscritto, davi fondamentalmente alla campagna tutte le informazioni su chi fossero i tuoi amici”. Non solo: lo staff digitale della campagna quindi “sovrapponeva quei dati con i propri database, ed era così in grado di targettizzare le persone che volevano raggiungere”. Risposta dell’intervistatore: “ma è fantastico!”.

Molti articoli hanno descritto negli anni la tattica obamiana del “target share”, ma Fast Company ne ha scritto recentemente alla luce del caso Cambridge Analytica e del mutato atteggiamento degli osservatori nei confronti del microtargeting. Obama lo mise in atto nel tentativo, disperato, di raggiungere i ventenni, per buona parte dei quali - ricordava Time appena finite le elezioni del 2012 - non disponeva di contatti telefonici. Che fare, se non una app su Facebook?

Fu un successo, con un milione di iscrizioni. Anche qui, col moltiplicatore delle informazioni sugli amici degli iscritti. Un successo. Tale da far dire al direttore della campagna digitale, Teddy Goff: “Credo che finirà per risultare la più rivoluzionaria tecnologia sviluppata per questa campagna”. Un bottone, ed ecco il contenuto giusto condiviso con l’amico giusto da convincere a votare Obama. A ciascuno la sua propaganda.

Una propaganda personalizzata e insieme massiva. Come ha scritto su Twitter la responsabile dei media analytics della campagna, Carol Davidsen, “Facebook era sorpreso che fossimo in grado di ottenere l’intero social graph, ma non ci ha fermato” nemmeno “quando ha compreso cosa stessimo facendo”. Anzi, secondo Davidsen dei rappresentanti di Facebook ammisero candidamente che avrebbero consentito loro di fare “cose che non avrebbero permesso ad altri di fare, perché stavano dalla nostra parte”. Su quante persone? “Fummo in grado di scaricare l’intera rete sociale degli Stati Uniti”, la risposta di Davidsen al Personal Democracy Forum del 2015, secondo Fast Company.

Lo stratega Patrick Ruffini conferma: “A partire da una base di un milione di profili, stimarono di poter contattare il 98% della popolazione statunitense su Facebook attraverso gli amici. Ciò che è risultato sospetto e metteva paura se fatto da Trump (in realtà no, perché non hanno usato i dati [di Cambridge Analytica, come detto da Parscale, ndr]) è stato salutato come una splendida innovazione tecnologica quando a farlo è stato Obama — e lo era”. Da leggere Ruffini sul doppio standard dei media rispetto alla privacy e a Cambridge Analytica.

Per Rob Blackie, “Cambridge Analytica sembra aver fatto esattamente lo stesso della campagna 2012 di Obama”, con l’unica differenza che invece di 50 milioni di persone raggiunte a loro insaputa la cifra sale a 200 milioni.

Naturalmente delle differenze ci sono. Prima di tutto, i dati raccolti da Obama erano stati raccolti specificamente a fini politici, non con la scusa di un test psicologico a scopi accademici. In secondo luogo, i dati raccolti erano diversi, limitandosi a “nome e città”, sostiene l’ex responsabile del microtargeting della campagna di Obama del 2008, Michael Simon.

Comunque la si pensi, la questione di fondo resta: milioni di persone sono state raggiunte da contenuti politici grazie a dati raccolti senza il loro consenso.

Diversa anche la reazione di Facebook, all’epoca rispetto a oggi: nessuna violazione.

Di nuovo: dove sta lo scandalo di questi giorni, dunque? Lo scandalo sta nell’evidenza di un errore di fondo nella concezione delle interazioni umane, la concezione che Mark Zuckerberg ha imposto — per sua stessa ammissione, nel tanto agnognato intervento post-Cambridge Analytica — dal 2007. L’idea cioè di costruire un “web dove si è social di default”. Dove cioè la norma è condividere. Un principio che è strutturalmente opposto alla tutela della privacy individuale, che si fonda sulla riservatezza come norma, riguardo ai propri dati personali.

E di cui lo stesso Zuckerberg si è pentito: "Credo davvero che all'inizio avessimo questa visione molto idealista su come la portabilità dei dati avrebbe consentito una serie di nuove esperienze", ha confessato a Wired nelle scorse ore, "e credo che il feedback ricevuto dalla nostra community e dal mondo sia che la privacy e la sicurezza dei dati siano più importanti di rendere più semplice portare più dati e avere tipi di esperienze diversi".

Il fondatore di Facebook, del resto, lo aveva già spiegato benissimo nel suo più recente intervento, individuando – giustamente – in quell’errore filosofico e antropologico la radice della tempesta in cui è costretto a destreggiarsi: “Nel 2007, abbiamo lanciato la Facebook Platform nella convinzione (“vision”) che più app dovessero essere social. Il tuo calendario doveva poterti mostrare il compleanno degli amici, le tue mappe mostrare dove vivono i tuoi amici, il tuo address book le loro foto. Per farlo, abbiamo consentito di accedere alle app e condividere chi fossero i tuoi amici e alcune informazioni su di loro”.

È questo che conduce, nel 2013, Kogan a ottenere l’accesso ai dati di milioni di persone. E certo, quei dati hanno un immenso valore scientifico — ed è giusto che la ricerca, se condotta nel pieno rispetto del consenso informato degli utenti divenuti soggetti sperimentali, possa accedervi. Per soli scopi accademici, però. E anche così, già nel 2014 il famoso esperimento condotto da Facebook stessa sulla manipolazione delle emozioni di centinaia di migliaia di utenti, a cui erano stati mostrati deliberatamente più contenuti positivi o negativi, aveva dimostrato che anche quando non ci sono di mezzo fini commerciali, la questione è ambigua, complessa. E che no, non basta accettare condizioni di utilizzo intricate e che non legge nessuno per dire che allora ogni utente ha, per il fatto stesso di avere accettato di essere su Facebook, di diventare indiscriminatamente un topo di laboratorio arruolato in esperimenti di cui ignora tutto.

Eppure è proprio la piattaforma a rendersi conto, già in quello stesso anno, che così le cose non vanno. Che a quel modo Facebook perde il controllo su quali terze parti hanno accesso ai dati dei suoi utenti. La policy dunque cambia, e da allora gli “amici” devono acconsentire al trattamento dei propri dati da parte di una app. La nuova filosofia, ricorda Albright, è “people first”. Ma è tardi. E l’incapacità di rientrare davvero in possesso di quell’ammasso di informazioni, dimostrata dal caso Cambridge Analytica – possibile Facebook debba scoprire dai giornali che l’azienda non aveva cancellato i dati che diceva di aver cancellato, o che debba comunque condurre un auditing serio per verificarlo ora, dimostrando di non avere idea se lo siano o meno? – fa capire che il problema va ben oltre il singolo caso in questione, ma è sistematico.

Per capirci più chiaramente: come scrive Albright, la prima versione delle API v.1.0 per il Facebook Graph – cioè ciò che gli sviluppatori di applicazioni potevano ottenere dal social network tra il 2010, data di lancio, e il 2014, data in cui la policy è cambiata – consentiva di sapere non su chi si iscriveva a una determinata app, ma dagli amici inconsapevoli, i seguenti dati: “about, azioni, attività, compleanno, check-ins, istruzione, eventi, giochi, gruppi, residenza, interessi, like, luogo, note, status, tag, foto, domande, relazioni, religione/politica, iscrizioni, siti, storia lavorativa”. Davvero si poteva pensare di controllare dove finissero tutti questi dati, per milioni e milioni di persone?

E davvero Facebook lo scopre oggi? Nel 2011, la Federal Trade Commission americana aveva già segnalato la questione come problematica. Non ha insegnato nulla?

Davvero si poteva giudicare “soddisfacente” la risposta data da Facebook alle autorità irlandesi che nello stesso anno avevano cercato di vederci più chiaro?

Iscriviti alla nostra Newsletter


Come revocare il consenso: Puoi revocare il consenso all’invio della newsletter in ogni momento, utilizzando l’apposito link di cancellazione nella email o scrivendo a info@valigiablu.it. Per maggiori informazioni leggi l’informativa privacy su www.valigiablu.it.

Già nel 2010 ricercatori della Penn State University avevano registrato che 148 delle 1800 principali app usate su Facebook chiedevano accesso ai dati degli amici di chi le usava. Possibile non siano state predisposte contromisure adeguate, in tutti questi anni? Possibile si debba attendere il 21 marzo 2018 per leggere di indagini su “tutte le app che avevano avuto accesso a grosse quantità di informazioni prima che cambiassimo la nostra piattaforma nel 2014 per ridurre l’accesso ai dati”, di un “totale controllo di ogni app con attività sospette”, e di relativi ban? E che senso ha notificarlo agli utenti colpiti — finalmente! — oggi?

Il vero scandalo sollevato dal caso Cambridge Analytica, in fondo, sta tutto qui. Non un "data breach", ma un "breach of trust". Non una violazione informatica, ma della fiducia degli utenti. Una violazione dovuta a un errore di gioventù, esploso un decennio dopo. Forse rendere il mondo sempre “aperto e connesso”, come Zuckerberg ripete dalla creazione del social network o quasi, non è il paradiso che si aspettava.

Foto in anteprima via Noah Berger/Associated Press

Segnala un errore