Diritti Digitali Post

Micro-targeting, profilazioni, algoritmi: il vero problema etico è l’uso da parte della politica dei dati dei cittadini

22 Aprile 2018 9 min lettura

author:

Micro-targeting, profilazioni, algoritmi: il vero problema etico è l’uso da parte della politica dei dati dei cittadini

Iscriviti alla nostra Newsletter

8 min lettura

L’evoluzione tecnologica e la capacità di acquisire ed elaborare quantità enormi di dati hanno portato progressivamente all'introduzione di processi algoritmici praticamente in tutti i campi: dall’istruzione alla sanità e alle attività di polizia, dalla pubblicità alla politica. Gli algoritmi sono anche alla base della presentazione di notizie e video sulle piattaforme online, come i social media. Il posizionamento della notizia dipende da una specifica combinazione di elementi tratti dall'elaborazione dei dati degli utenti.

Leggi anche >> Algoritmi, intelligenza artificiale, profilazione dei dati: cosa rischiamo davvero come cittadini?

Il primo problema che si presenta con gli algoritmi è che essi vanno “addestrati”. Nel software devono essere inseriti gli elementi che consentono di stabilire il significato da attribuire ai dati raccolti e per creare le correlazioni. Anche per il machine learning è necessaria una fase di addestramento. In questa fase è fondamentale che i dati iniziali siano il più possibile neutrali, poiché il programmatore potrebbe inserire i suoi pregiudizi (bias) nell’algoritmo, che finirebbe per replicarli su larga scala, con ciò determinando discriminazioni potenziali (si veda l’articolo linkato sopra per esempi di discriminazione algoritmica).

Ovviamente le discriminazioni possono essere anche intenzionali. Ad esempio, un algoritmo che vi consiglia il percorso più breve e meno trafficato per raggiungere il supermercato è un toccasana. Ma cosa dire di un algoritmo che consiglierà ai più poveri un percorso diverso per consentire ai più ricchi, utenti paganti della App di navigazione, di avere la strada libera?

Stessi dati, differenti finalità

Un altro aspetto da non sottovalutare è che i dati sono generalmente raccolti dalle aziende (quelle del web, ma non solo), ma vengono poi condivisi con altre entità a fini differenti, ad esempio con le autorità. Oggi anche i governi europei raccolgono e utilizzano in grandi quantità i dati dei cittadini.

Nell’uso da parte dei governi dei dati raccolti dalle aziende, purtroppo, non si tiene conto che le finalità dei governi e quelli delle aziende non coincidono. Le aziende non hanno alcuna necessità di identificare fisicamente l’utente, quanto piuttosto di categorizzarlo, realizzando una segmentazione del mercato utile all’invio di pubblicità personalizzata (es. tutti i maschi con reddito superiore ai 100mila euro annui possessori di un’auto di grossa cilindrata). Tale tipo di categorizzazione (generalmente definita “profilazione”) non è lo scopo perseguito dai governi, che invece vogliono poter identificare fisicamente il cittadino, legando ad esso una serie di caratteristiche specifiche in modo da “prevedere” la possibilità che ponga in essere dei comportamenti criminali o semplicemente antisociali.

A causa dei differenti obiettivi, c'è il rischio di errori di valutazione, questo perché l’azienda che raccoglie i dati categorizza in un certo modo un individuo, indipendentemente da come è l’individuo stesso. Cioè, una persona può essere categorizzata come maschio anche se poi nella realtà non lo è. Per l’azienda questo non importa, ciò che vuole l'azienda è solo capire come si comporta quella persona e che interessi ha. Per cui una donna che naviga online leggendo articoli destinati prettamente a maschi, interessandosi di auto, sport, motori in genere, per l’azienda viene classificata come “maschio” (casomai in percentuale) perché all’azienda interessa solo al fine di inviargli pubblicità legata ai suoi “interessi”.

Leggi anche >> Il capitalismo della sorveglianza

Il fatto che, però, tale persona sia classificata come “maschio”, può creare problemi nel momento in cui i suoi dati sono condivisi con i governi, che potrebbero trovarsi una donna categorizzata come “uomo”, con notevole discrepanza rispetto alla realtà. E questo può accadere con riferimento a numerosi altri aspetti di un individuo. Il governo, infatti, non ha alcuna idea di quale algoritmo abbia utilizzato l’azienda per la categorizzazione di un individuo.

La profilazione dei consumatori attraverso la psicografia

Nel campo della pubblicità, tali processi algoritmici servono a incrementare l’efficacia del messaggio pubblicitario e, in generale, per migliorare i profitti delle aziende. Anche l’esperimento del “contagio emotivo” di Facebook nel 2012 – dal quale comunque è emersa una bassa capacità di influenza (ma che ha alimentato considerazioni di ordine etico) – alla fine aveva lo scopo di verificare se gli utenti trascorrevano più tempo sul social quando ricevevano nel loro feed post “tristi” oppure quando ricevevano post “felici”.

Questo introduce un elemento fondamentale. Un tempo le aziende, per la costruzione di quella che viene definita “audience” (il pubblico), cioè per la segmentazione del mercato di riferimento (vale a dire, la suddivisione dei cittadini in gruppi ai quali inviare il messaggio pubblicitario), utilizzavano metodi demografici, servendosi di dati come la località, l’età, il reddito, e così via.
Resesi conto dell’inefficienza di quel metodo, a partire dagli anni ‘70 si è passati ad un altro metodo definito “psicografia” (quello, per intenderci che negli scorsi giorni è stato accostato a Cambridge Analytica).

La psicografia è un metodo di profilazione basato sul comportamento dei consumatori e che integra, insieme ai tradizionali dati demografici ed economici, anche ulteriori elementi quali gli stili di vita, le abitudini, i gusti, le modalità di fruizione dei mass media ed altre variabili di ordine psico-sociale. In tal modo è possibile ottenere una classificazione degli utenti in maniera più complessa, e quindi la costruzione di una “audience” più efficace. Sapendo, ad esempio, che gli estroversi rispondono bene a una pubblicità a favore delle armi che dipinge la caccia come tradizione di famiglia o come strumento di avventure, mentre, invece, le persone nevrotiche preferiscono un messaggio che sottolinei che sono protetti dalla legge nel caso in cui si trovassero a dover utilizzare quelle armi, si possono personalizzare i messaggi e inviarli in maniera più mirata. L’obiettivo è lo stesso, i messaggi diversi.

I metodi pubblicitari, quindi, riescono a misurare il “sentimento” delle persone nei confronti di un determinato prodotto o marchio, al fine di individuare a quali persone conviene presentare quello specifico annuncio pubblicitario. È evidente che l’approccio è del tutto emotivo, ed è un pilastro fondamentale dell’industria pubblicitaria da decenni. Col tempo si sono solo affinati i metodi di raccolta dei dati e di "consegna" dei messaggi pubblicitari, specialmente con le nuove tecnologie.

Questo metodo è diventato anche la spina dorsale dell’analisi politica: La campagna di Obama è considerata una delle prime a utilizzare tali metodi online (anche se in realtà si limitò ad usare dati demografici)

Nei giorni scorsi abbiamo avuto l’occasione di assistere e partecipare ad un ampio dibattito sulla questione Facebook-Cambridge Analytica. I dettagli sono descritti nell’articolo Guida al caso Facebook-Cambridge Analytica: gli errori del social, la reale efficacia dell’uso dei dati e il vero scandalo. Le accuse rivolte al social network di Mark Zuckerberg sono state pesanti: distruggere la democrazia, far eleggere i populisti, “vendere” dati senza il consenso dei cittadini. In questo caso non solo non c’è stata alcuna vendita di dati, ma, soprattutto, non esiste a tutt’oggi alcuna prova che il metodo utilizzato sia stato realmente efficace. L'impressione, più che altro, è che Cambridge Analytica abbia voluto pubblicizzare un prodotto che semplicemente non può fornire (per la storia di Cambridge Analytica leggi: Cloak and Data: The Real Story Behind Cambridge Analytica’s Rise and Fall).

Leggi anche >> Ma davvero Cambridge Analytica ha manipolato il voto usando i dati online degli utenti?

Ma non per questo il problema non esiste. Ad esempio, abbiamo poi documentato nel nostro articolo Siete pronti? Questi sono i vostri dati che i giornali online vendono sul mercato digitale che la raccolta di dati personali ad ampio spettro non è esclusiva delle grandi piattaforme del web, ma appannaggio anche degli editori e dei giornali, tramite i loro siti nei quali si moltiplicano gli ormai onnipresenti tracker, tool che seguono gli utenti passo passo durante la navigazione online raccogliendo, appunto, dati “psicografici”.

Ma non basta, è notizia di questi giorni che Deutsche Post ha ceduto i dati dei cittadini del suo enorme database a due dei partiti politici tedeschi prima delle elezioni del 2017 . Sia le Poste che i due partiti si sono affannati a difendere la pratica in questione, sostenendo che in realtà i dati sono anonimizzati (cioè privati di tutti gli elementi identificativi, quindi non sarebbero nemmeno più soggetti alla normativa in materia di protezione dei dati personali, ma in realtà sembrerebbe più una pseudonimizzazione, cioè quando agli elementi identificativi viene sostituito un qualcosa di diverso -hash- tipo una stringa alfanumerica, rendendo solo più difficile l'identificazione degli interessati) prima di essere ceduti (in affitto dicono le Poste, come se cambiasse qualcosa). Cioè, i dati non si riferirebbero a singole persone bensì a “microcelle” di 6,6 famiglie.

Leggi anche >> La CDU di Angela Merkel e i liberali di FDP hanno comprato dalle Poste i dati microtargeting degli elettori durante la campagna 2017

Nella pratica, però, quei dati hanno consentito la microtargetizzazione della campagna politica a livello di singola strada, per cui il fatto che i singoli soggetti non fossero identificati (non c’era il nome e cognome per capirci) non muta i termini della questione. I due partiti hanno potuto accedere ad una mappa che gli indicasse in quali strade e quali palazzi inviare messaggi politici mirati, e dove andare col porta a porta.

La politica emozionale

E allora si comincia a capire che quello che vediamo è solo la punta dell'iceberg del trattamento “senza consenso” dei dati dei cittadini, dove il capro espiatorio diventa il social in blu di Mark Zuckerberg. Nello sfondo, invece, tentano di nascondersi agli occhi dei cittadini sia gli "editori" che gli stessi governi, dietro improbabili scuse e gravi omissioni informative. Quanti giornali hanno sparato a zero su Facebook? E, invece, quanti parlano dei dati che loro stessi raccolgono e usano? E quanti indagano, o fanno inchieste, sull’uso spregiudicato dei dati da parte dei politici e degli stessi governi?

Il fatto che non ci siano prove in base alle quali sostenere che in questi casi si sia avuta una effettiva influenza sull’esito dei voti politici (quello negli Usa e quello in Germania), non ci può far disinteressare del problema. La tecnologia si evolve.

E il problema non è Facebook che usa i dati dei cittadini per fare profitti, perché lo fanno tutte le aziende e anche gli editori, la questione è che milioni di persone sono state raggiunte da contenuti politici grazie a dati raccolti senza il loro consenso per quella specifica finalità. Tramite Facebook, tramite le Poste tedesche, tramite altri mille rivoli.

Se l’analisi dei sentimenti utilizzata per vendere prodotti è più o meno accettata, fermo restando che si parla sostanzialmente di bisogni indotti nei cittadini, possiamo ugualmente accettare che una analisi di questo tipo sia alla base dei messaggi politici? Non stiamo parlando del politico che fa discorsi incentrati sulle paure dei cittadini (es. migranti, delinquenza), che sono discorsi uguali per tutti, ma di qualcosa di molto più subdolo e meno trasparente. Stiamo parlando di messaggi che sono cuciti (tailored) sulle persone, che si adattano alle paure e alle emozioni del singolo.

Se ci pensiamo bene, in questo modo noi svincoliamo la politica dai fatti e dagli argomenti concreti per ricollegare una vittoria elettorale esclusivamente ad argomenti emotivi. Già oggi la politica è estremamente orientata a proporre argomenti emotivi, ma l'elettore può ancora scegliere, volendo, di accontentarsi di tali argomentazioni oppure votare basandosi sui fatti. Un domani questo sarà sempre più difficile perché i messaggi politici saranno in grado di coinvolgerci emotivamente fin dal profondo, perché saranno selezionati in base ai nostri interessi, alle nostre più intime paure. Scelte persona per persona, elettore per elettore.

“The only real prison is fear, and the only real freedom is freedom from fear” (Aung San Suu Kyi)

Insomma, una politica che trasforma lo spazio pubblico in uno scenario di rappresentazioni emozionali, dove l’opinione pubblica lascia il passo all’opinione emotiva. Siamo pronti a una politica basata sulle emozioni?

Leggi anche >> Su Facebook e Cambridge Analytica abbiamo un problema di copertura mediatica

Lo stesso Garante per la protezione dei dati personali di Amburgo, Kaspar, ha messo in guardia contro questo uso dei dati: “Quando la Costituzione assegna ai partiti il compito di rappresentare la volontà popolare, non significa certamente usare metodi non trasparenti per manipolare la volontà degli elettori”. La percezione che tali metodi di invio di messaggi politici possano influenzare gli elettori, indipendentemente dalla loro efficacia, potrebbe minare ulteriormente la fiducia dei cittadini nella democrazia e nelle istituzioni.

Iscriviti alla nostra Newsletter


Come revocare il consenso: Puoi revocare il consenso all’invio della newsletter in ogni momento, utilizzando l’apposito link di cancellazione nella email o scrivendo a info@valigiablu.it. Per maggiori informazioni leggi l’informativa privacy su www.valigiablu.it.

A meno che i governi non inizino a regolamentare questo tipo di targetizzazione politica, è probabile che di questi casi ne vedremo sempre di più nei prossimi anni. Ma questo, purtroppo, vorrebbe dire che gli Stati dovrebbero regolamentare per primi la propria attività. Regolamentare solo piattaforme come Facebook non cambierebbe assolutamente nulla.

Immagine in anteprima via pixabay

 

Segnala un errore

Array