Saggio. Cambridge Analytica: come ti “hackero” la Democrazia

Cambridge Analytica: come ti “hackero” la Democrazia. L’intersezione di Social Network, Intelligenza Artificiale (IA) e psicologia comportamentale è perfettamente in grado di costruire la macchina acchiappa anime


Questo →saggio è pubblicato nella rubrica L’informatore di Luca Passani, sul blog lavocedinewyork.com  l’8 aprile 2018


Nei media si è molto parlato di Cambridge Analytica ultimamente e dell’uso non autorizzato dei dati presi da Facebook. Tutti aspetti importanti, che però sono solo dettagli se paragonati al problema più grande che minaccia l’essenza stessa delle nostre democrazie.

Settembre 1980 ad Akron, Ohio. Dwayne Peters, un lavoratore quarantacinquenne della ABC Railway, è a casa sua la sera:

❝ Dwayne accese la TV, stappò una birra e sprofondò nel suo vecchio divano. Le immagini e le parole di un talk show cominciarono a danzargli davanti. I partecipanti parlavano della crisi degli ostaggi americani in Iran. Dwayne seguiva la discussione, anche se un po’ distrattamente.
 Ogni frase e ragionamento espresso nel programma rimarcavano quanto debole e inadeguata l’amministrazione di Jimmy Carter fosse nel gestire la crisi. Il linguaggio del corpo dei partecipanti segnalava tristezza e scoraggiamento. Tutti sembravano un po’ abbacchiati, se non fosse per alcune interessanti eccezioni: quando si parlava di Ronald Reagan, i volti si illuminavano, comunicando una gioia appena percettibile.
 Sul tavolino davanti a Dwayne, anche il giornale di quel giorno aveva titoli sulla crisi degli ostaggi mal gestita. In prima pagina, un articolo di opinione del direttore lanciava l’allarme su come molti in Ohio avrebbero probabilmente perso il lavoro a causa delle politiche dell’amministrazione Carter.
 Dwayne si addormentò sul divano, ignaro di cosa fosse successo a casa sua durante il giorno mentre era al lavoro.
 Quella mattina, un signore vestito da postino era passato da casa sua. Aveva rimosso il giornale dalla sua porta di casa e lo aveva rimpiazzato con un altro, del tutto simile, ma con contenuti pensati e scritti specificamente per Dwayne. Un’ora più tardi era apparso un operaio sul tetto della sua casa e aveva installato un marchingegno in grado di rimpiazzare il segnale televisivo con quello di un programma fatto apposta per Dwayne.
 E non era tutto. Nelle settimane precedenti, alcune persone sconosciute, ma dall’aspetto perfettamente ordinario, avevano avvicinato Dwayne durante la pausa pranzo per fare due chiacchere. Altri ancora avevano attaccato bottone con alcuni suoi amici, colleghi di lavoro e parenti. Tutti si erano presentati casualmente. Parlando del più e del meno, erano arrivati a fare domande e a raccogliere informazioni dettagliate sulla personalità dell’ignaro ferrotranviere.
 E di cosette sul conto di Dwayne ne avevano capite un bel po’. Sapevano che era indeciso se votare per il candidato democratico o quello repubblicano nelle imminenti elezioni presidenziali. Sapevano che Dwayne era un tipo solido, che non si faceva facilmente impressionare, ma anche che era un tipo coscienzioso che dava grande importanza al lavoro di squadra. Allo stesso tempo, però, Dwayne esigeva fermezza e capacità da chiunque dirigesse un team. Dalle domande era anche venuto fuori che Mr. D. Peters temeva un po’ per il suo lavoro. A 45 anni, le forze e la vista non erano più quelli di 15 anni prima. Già da qualche mese aveva cominciato a chiedersi per quanto tempo avrebbe potuto fare quel lavoro, anche perché non era certo di sapere fare altro nella vita.
 Dopo aver analizzato il profilo di Dwayne, un team di psicologi, giornalisti ed attori assegnati al progetto avevano confezionato articoli di giornali e programmi televisivi su misura per lui. Questi programmi avrebbero avuto grande efficacia nel portare Dwayne a ritenere Carter un incapace, a far presa sulle sue paure di perdere il lavoro e a farlo votare per Ronald Reagan. Gli architetti di questa operazione ne erano certi.

Se pensate che questo thriller fantapolitico che avete appena letto sia una puttanata, ci avete azzeccato perfettamente. Anche una storia di fantasia deve avere un minimo di coerenza e questo brano che ho inventato io non ne ha per niente. Non è neanche lontanamente verosimile. Come si può pensare che qualcuno usi quattrocentomila dollari del 1980 per garantire un singolo voto indeciso ad elezioni presidenziali in cui votano milioni di persone? Questa non è fantapolitica. È un assurdo lontano mille miglia da ciò che sarebbe mai potuto accadere nel 1980.

Facciamo adesso un’ipotesi. L’ipotesi è che oggi lo stesso esatto “trattamento cognitivo” descritto sopra sia possibile alla modica cifra di $0.49, cioé 49 centesimi di dollaro a persona, incluso il fatto che ogni singolo Dwayne, Mary, Jamal, Jonathan, Anne e Latisha riceva informazioni ritagliate a misura di stato sociale, età, sesso, razza, inclinazioni politiche, luogo di residenza e profilo psicologico di ognuno.

Se questa ipotesi fosse vera, le conseguenze sarebbero inquietanti. Le nostre democrazie rischierebbero seriamente di essere un giochino nelle mani di chiunque abbia abbastanza soldi per accedere alla ‘dashboard di sistema’, un pannello di controllo attraverso cui le menti vengono imbeccate, fuorviate e manipolate ponendole all’interno di un mondo virtuale e personalizzato costruito per ognuna di esse.

Ebbene. Facciamo molta attenzione ora. L’intersezione di Social Network, Intelligenza Artificiale (IA) e psicologia comportamentale è perfettamente in grado di costruire questa macchina. Infatti quella macchina è stata costruita ed ha un nome che probabilmente avete già sentito, Cambridge Analytica (CA per brevità nel resto dell’articolo).

La mia impressione è che molti non abbiano capito bene la portata di quello che sta succedendo, derubricando il tutto a un semplice uso di dati non autorizzato. In molte discussioni vedo reazioni del tipo: “E capirai… Basta non rivelare troppo di sé a Facebook”. Le cose non stanno in questi termini. Siamo davanti a una situazione estremamente seria. Siamo davanti ad evoluzioni tecnologiche che mettono in discussione il senso stesso della parola democrazia, così come l’abbiamo sempre intesa.

In questo articolo spiegherò i meccanismi di questa nuova potentissima macchina.

L’intersezione di Tre Tecnologie

Per capire la portata del sistema costruito da Cambridge Analytica (CA) occorre capire tre contesti scientifici e tecnologici separati, in parte spiegati direttamente dal CEO di quell’azienda in una famosa presentazione tenuta a New York prima dell’elezione di Trump a Presidente degli Stati Uniti:

  • Data Analytics: Intelligenza Artificiale (IA), Big Data e Machine Learning permettono di prendere un numero ampio di dati “in entrata”, guardare come questi si relazionino ai dati “in uscita” e, grazie a ciò, costruire algoritmi che prevedono con grande precisione il risultato in uscita anche in presenza di nuovi dati di entrata.
  • La psicologia umana: in particolare i modelli che gli psicologi hanno sviluppato già a partire dagli anni 30 per ‘misurare’ diversi tratti della personalità umana. Il modello Big Five (detto anche modello OCEAN) si basa su cinque aspetti (traits) per descrivere la personalità di ogni individuo.
  • Ad Tech, Advertising Technology, ovvero la tecnologia per gestire la pubblicità sul web. Tale tecnologia è oggi molto sofisticata e basa il suo successo sulla profilazione il più possibile accurata di ogni utente. Ovviamente i social network, e Facebook in particolare, sono i canali privilegiati dall’industria, vista la ricchezza di particolari associata ad ogni utente. Questo permette una ‘targhetizzazione’ precisa del messaggio pubblicitario.

Spieghiamo ognuno di questi campi più approfonditamente.

Data Analytics: Machine Learning e Intelligenza Artificiale (IA). Il Machine Learning e l’Intelligenza Artificiale sono tecnologie potentissime. Se avete Netflix, vi sarete accorti che l’applicazione è in grado di raccomandarvi film e serie TV prevedendo quelli che vi piaceranno sulla base di quanto vi sono piaciuti quelli di prima. Non è magia. Netflix guarda i voti che milioni di utenti hanno dato ai suoi programmi. Con quei dati costruisce degli algoritmi che calcolano la probabilità con cui un nuovo film vi piacerà. Se avete apprezzato La dottoressa ci sta col colonnello con Lino Banfi e Alvaro Vitali, probabile al 94% che anche Occhio, Malocchio, Prezzemolo e Finocchio sia di vostro gradimento.

Ma ci sono esempi di IA ancora più significativi. Un sistema IA ‘allenato’ con le cartelle e la storia clinica di centinaia di migliaia di pazienti può già oggi fare diagnosi migliori di quella di un dottore. La cosa non deve stupire. L’IA non è soggetta ai bias cognitivi. Se il training della IA è fatto bene e con abbastanza dati, quella fa meno errori di un umano, incluso un umano esperto.

Un’altro esempio è quello che riguarda le macchine che si guidano da sole. È l’Intelligenza Artificiale che permette tale prodigio della scienza.

Si potrebbe pensare che l’IA appartenga solo a contesti scientifici super specializzati. Non è così. Ecco un esperimento che potete ripetere anche voi. Ho fatto una foto a questa tazza col mio cellulare:

Una tazza a caso fotografata col mio cellulare

Sono andato su Google Image e l’ho caricata per porla all’attenzione della IA di Google.
L’IA di Google l’ha immediatamente riconosciuta: “Per me è una coffee cup”!
Eppure questa era un’immagine nuova e mai pubblicata da nessuna parte. Google non l’aveva mai vista. Nonostante ciò il sistema è stato in grado di riconoscere di cosa si trattasse grazie all’intelligenza artificiale. Migliaia di oggetti simili targati “coffee cup” sul web sono serviti per il ‘training’ delle reti neurali e con quelle Google è stato in grado di riconoscere anche una nuova immagine.

Cosa c’entra questo con Cambridge Analytica? C’entra tantissimo.

Immaginate di avere un classificazione scientifica che riesca a catturare un profilo psicologico umano tramite 5 coefficienti (il sistema OCEAN di cui parlerò più avanti). Se avete abbastanza dati, potete costruire una rete neurale in grado di associare ‘like’ e preferenze apparentemente insignificanti a quel profilo psicologico dell’utente e a moltissime altre informazioni.

Per fare un esempio banale (e inventato), immaginate un algoritmo IA allenato con le preferenze di decine di migliaia di utenti. Una volta informato che ad un nuovo utente piacciono la Formula Uno, quella certa canzone di Vasco Rossi, la foto di un gattino e un articolo sull’immigrazione clandestina, l’algoritmo può determinare che i vostri cinque coefficienti sono (0,-2,1,-1,3) e su quella conoscenza scegliere quale tipo di messaggio ha maggiori possibilità di fare colpo su di voi, un po’ come se aveste compilato dei questionari molto dettagliati per offrire quell’informazione a uno psicologo. Oltre a questo, l’algoritmo capisce anche (con buona probabilità di azzeccarci) quanti anni avete, se siete maschio o femmina, etero o omo, che partito votate e altre cosette. In realtà servono più di 4 like, ma i ricercatori ci informano che con 300 like, l’algoritmo finisce per conoscerci meglio di quanto noi crediamo di conoscere noi stessi.

Occorre capire bene come funziona il modello OCEAN per avere il polso di quanto sia potente questo sistema. Intendo spiegarlo a breve, ma prima serve un’osservazione importante sui dati che Cambridge Analytica ha utilizzato per il training del suo algoritmo. Questo vi darà una bussola per dare un senso alle notizie talvolte oscure e fuorvianti che i giornali hanno scodellato nelle ultime settimane.

C’è del marcio a Cambridge

Un professore di Psicologia inglese di nome Aleksandr Kogan (Università di Cambridge) conosceva bene i risultati delle ricerche di alcuni suoi colleghi, in primis Michal Kosinski. Kosinski aveva capito come i dati di Facebook avrebbero potuto essere correlati in modo da ricavare l’equivalente del modello OCEAN (oltre a moltissime altre informazioni personali) senza bisogno di interviste e questionari. Kogan è passato dalla teoria (di Kosinski) alla pratica creando un’App Facebook che pagava gli utenti per offrire dati molto precisi su se stessi. Inoltre la App raccoglieva anche i dati degli amici Facebook di quelli che facevano il test. 270 mila persone hanno usato la App, ma sfruttando gli amici, si sono raccolti dati su 57 milioni di persone. La cosa interessante è che la raccolta dei dati degli amici nel 2013 e 2014 (l’epoca in cui la app di Kogan era attiva) era perfettamente lecito secondo le regole di Facebook per i developer (oggi non lo sarebbe più. Nel frattempo Facebook ha rimosso quella possibilità). Quei dati sono stati utilizzati per il training dell’algoritmo di Cambridge Analytica.

Adesso che lo scandalo è scoppiato, Facebook dice che Kogan non era autorizzato a passare i dati a Cambridge Analytica. Kogan sostiene che Cambridge Analytica gli avesse garantito che tutto era legale. Cambridge Analytica dice che hanno distrutto quei dati e che non sono stati utilizzati nelle elezioni americane. Sapere come stanno le cose esattamente sarebbe interessante, ma solo fino a un certo punto. È probabilmente vero che CA non ha usato i dati nella campagna per Trump e forse è anche vero che li ha distrutti, ma questo non è il punto. Il punto è che Cambridge Analytica ha molto verosimilmente usato quei dati per il training della sua IA. L’arma è stata creata. Se vi piace Nicky Minaj, la “macchina” sa che siete mentalmente aperti. Se vi piace Hello Kitty, sa che siete estroversi (due dei 5 parametri OCEAN). Il messaggio giusto per convincervi a comprare un prodotto o votare per qualcuno (o non votare proprio) verrà scelto di conseguenza e in automatico dall’algoritmo.

Vediamo più in dettaglio il modello OCEAN.

Psicometria: Il Modello Psicologico OCEAN (Big five) per misurare la personalità di ognuno

Psicologi e studiosi di scienze comportamentali hanno proposto vari modelli nel tempo per classificare la personalità umana secondo certi parametri. Quest’area di studio della psicologia si chiama psicometria. Per mettere le cose in prospettiva, questi modelli sono alla base di vari protocolli che aziende e organizzazioni in tutto il mondo utilizzano per valutare la personalità dei candidati prima di assumerli per un lavoro. Ad esempio, se doveste assumere un insegnante, probabilmente vorreste che fosse un tipo coscienzioso.

Un modello psicometrico molto popolare è il cosiddetto Big Five, che cattura i cinque tratti fondamentali della personalità umana. Questo modello è detto anche OCEAN, dalle iniziali delle 5 parole che definiscono questi tratti:

I 5 Tratti della personalità del modello OCEAN / Big Five

  • Openness to experience (Apertura Mentale). Quanto si è aperti a nuove esperienze.
  • Conscientiousness (Coscienziosità). Quanto si è perfezionisti.
  • Extraversion (Estroversione). Quanto si è socievoli.
  • Agreeableness (Amicalità). Quanto si è attenti e premurosi verso gli altri.
  • Neuroticism (Stabilità emotiva). Quanto si è connessi alle proprie emozioni.

Questo modello è in grado di catturare l’essenza di ogni profilo psicologico umano con 5 coefficienti numerici.

Creare un messaggio pubblicitario unicamente sulla base, ad esempio, dell’età, o del sesso, o della classe sociale di chi lo riceve avrà impatto molto inferiore rispetto a un messaggio customizzato anche secondo il profilo psicologico. La spiegazione l’ha offerta lo stesso Alexander Nix (il CEO di CA) nella già citata presentazione a New York prima delle elezioni presidenziali con un esempio significativo: prese due persone a cui si intendono indirizzare messaggi per convincerli a sostenere il Secondo Emendamento (il diritto costituzionale degli americani a possedere armi da fuoco), ecco come il messaggio stesso cambierà a secondo del profilo psicometrico basato sul modello OCEAN.

Nel primo caso abbiamo una persona coscienziosa ma anche un po’ “neurotica”. Per lei l’immagine di un criminale che irrompe in casa avrà forte impatto. Nel secondo caso, con un profilo più conservatore, ma “amicale”, l’immagine del padre che porta il figlio con sé a caccia avrà maggior effetto.

Sempre nella stessa presentazione, il CEO spiega come funziona la mente umana e in particolare come un messaggio razionale del tipo “Spiaggia Privata” potrebbe non essere molto convincente nel dissuadere la gente a stare alla larga, ma se facciamo balenare l’idea che nell’acqua ci siano gli squali, il messaggio viene associato a una minaccia subcosciente e l’effetto è assicurato (particolarmente con i più “nevrotici”).

In realtà questa non è una novità per chi abbia letto un po’ su come funziona la mente umana. Da decenni la scienza sa che una parte del cervello chiamata amigdala è in grado, per il nostro benessere, di riconoscere situazioni di pericolo nel giro di pochi centesimi di secondo, ovvero ancora prima che la parte razionale della mente abbia processato immagini o suoni a livello conscio. Con questo tipo di messaggio si attivano meccanismi di allarme che agiscono a livello inconscio e che possono superare ogni argomento razionale che provi a tranquillizzare la persona. Ci penserà poi la nostra capacità di creare narrazioni (e corroborarle tramite bias da conferma) a dare un giustificativo pseudo-razionale alle paure scatenate attivando l’amigdala.

Cambridge Analytica usa questi mezzi di convincimento con precisione chirurgica (specialmente con quelli individuati come meno stabili emotivamente), ma il meccanismo è noto da anni. Se vi è capitato di leggere un articolo attirati dal titolo, per poi scoprire che quel titolo, a guardare bene, non c’entrava tanto col contenuto, la spiegazione è che il capo redattore, conoscendo il mestiere, ha inserito un nuovo titolo più “drammatico” in grado di attivare l’amigdala e attirare maggiormente l’attenzione. È l’evoluzione darwiniana che ci ha costruiti così. Siamo naturalmente più attenti alle possibili minacce che non alle altre notizie. Quelli che non prestavano attenzione alle minacce non hanno evidentemente avuto molto successo nella partita evoluzionistica.
Giusto per completezza, ecco alcuni riferimenti agli studi psicologici che spiegano il motivo per cui la macchina di CA funziona alla grande.
Ho già citato lo studio di Michal Kosinski che spiega come i dati di Facebook possano essere correlati al profilo OCEAN dell’utente. Dall’abstract:

Il modello distingue correttamente tra maschi omosessuali ed eterossesuali nell’88% dei casi, tra neri e bianchi nel 95% dei casi e tra democratici e repubblicani nell’85% dei casi. Per quanto riguarda il tratto psicologico ‘openness’ (apertura mentale), il modello predice il valore con una precisione analoga a quella del “test-retest” di un test della personalità standard.

Ad esempio, se siete maschi e vi piace la musica dei rapper neri statunitensi, la IA indovina che siete molto probabilmente etero. Se vi piacciono le aziende che producono cosmetici, invece, l’algoritmo riesce a inferire una correlazione nell’altro senso.

Un altro studio di Kolinski spiega come, una volta costruita la IA che mappa i ‘like’ alla personalità, i risultati della IA sono migliori di quelli degli umani nell’indovinare la personalità delle persone.

Infine, ecco uno studio di Kosinski che mostra come il targeting pubblicitario basato sul modello OCEAN sia un efficace mezzo digitale di persuasione delle masse.

Advertising Technology (Ad Tech): La Pubblicità nell’Era dei Social

Non rimane che discutere la terza gamba della piattaforma di CA, il meccanismo che fa conoscere a CA in tempo reale le preferenze di ogni utente. Qui non ci sono segreti particolari da svelare. C’è solo da raccontare quello che un po’ tutti già sappiamo. Offrire agli advertiser dati sull’utente in tempo reale è l’essenza della piattaforma pubblicitaria di Facebook, ma anche di tutto l’Ad Tech in generale. Questi dati sono quelli classici sulla posizione geografica dell’utente, nazionalità, data di nascita, e like espressi in passato. Di per sé, non c’è niente di male se un’azienda discografica vuole che l’offerta per i grandi successi di Charles Aznavour vada a un pubblico maschile di almeno 50 anni residente in Francia, Italia o Svizzera. Il problema è quando si inserisce la dimensione psicometrica e con quella ci si manipolano le elezioni.

La piattaforma di pubblicitaria di Facebook in particolare è abbastanza potente da permettere di “pluggare” anche informazioni ottenute da terze parti. Per completezza, va riferito che Facebook ha recentemente annunciato di voler fare retromarcia su quell’aspetto.

Ogni azienda che lavori nel campo dell’Ad Tech offre ai clienti un qualche tipo di dashboard, un pannello di controllo attraverso cui si possono impostare i parametri delle proprie campagne pubblicitarie, gestirne i costi, monitorarne i risultati ed estrarre report da far vedere a quelli seduti ai piani alti.

Non sorprende che anche CA abbia una dashboard tutta sua per impostare e controllare gli effetti delle proprie campagne. Il CEO ci ha fatto dono di alcune schermate significative durante la sua presentazione di New York. Fa un certo effetto pensare che quei diagrammi e quelle mappe coropletiche rappresentino il modo con cui, chi può permetterselo, ha modo di aggiustare il processo democratico di un paese.

Dopo aver spiegato come funziona la macchina inventata da CA, immagino che abbiate un po’ di domande. Provo a indovinarle (sono anche le mie) e ad azzardare alcune risposte.

Significa questo che Cambridge Analytica e Facebook sono il problema?

Sì e No. Penso che il problema trascenda Facebook e CA. Cambridge Analytica (in realtà la sua controllante, SCL group) è stata la prima a fare 2+2 e a capire la potenza di un meccanismo che sfruttasse Ad Tech, Intelligenza Artificiale e profilazione psicologica per costruire una macchina di persuasione di massa. Facebook è stata la piattaforma che ha permesso la raccolta dei dati per costruire l’algoritmo di IA e l’uso integrato dell’algoritmo all’interno della sua infrastruttura pubblicitaria. Detto questo, a mio parere il vero problema è che questa tecnologia esiste, non che l’azienda X o Y sia stata la prima ad applicarla. Come CA, altre aziende, organizzazioni o governi potrebbero arrivare a soluzioni analoghe, e probabilmente le stanno già utilizzando in modi più o meno sofisticati di quanto abbia fatto CA.

Per quanto riguarda Facebook, essa non è l’unica organizzazione che può accedere a tonnellate di informazioni personali. Google, Amazon, Yahoo e altri sono i primi nomi che vengono alla mente, ma anche aziende come Verizon, TIM, e Vodafone possono raccogliere informazioni tramite set-top boxes e app. Infatti, qualunque azienda distribuisca app un minimo popolari può accedere a informazioni analoghe a quelle raccolte da CA e creare una sua IA. Conosco personalmente uno ‘start-uppista’ italiano che aveva applicazioni popolari e, in virtù di questo, era stato in contatto con Alexander Nix in persona riguardo ai dati degli utenti. Del resto, sempre guardando la stessa presentazione, è Alexander Nix stesso a darci uno spaccato delle altre aziende da cui CA ha ottenuto dati e non c’è solo Facebook.

Inoltre, guardando al futuro, non è difficile ipotizzare meccanismi di IA che sfruttano modelli della mente umana più sofisticati di OCEAN. OCEAN si basa su 5 tratti psicologici individuati dagli umani. Non esiste nessun ostacolo che impedisca a una IA di individuare 10, 50 o 100 tratti riuscendo a fare una targhetizzazione ancora più accurata e con impatto ancora maggiore su ogni utente. Infatti, non c’è neanche un requisito stretto di passare da una targhetizzazione psicologica comprensibile agli umani. La IA potrebbe semplicemente passare dai ‘like’ a una scelta di contenuti e messaggi che sono stati verificati come efficaci senza il supporto di un modello psicologico esplicito.

È vero che la vittoria di Trump e del fronte che voleva la Brexit è stata determinata da Cambridge Analytica?

Non credo sia possibile dimostrarlo con certezza assoluta, perché non si può fare un esperimento per vedere come sarebbero andate le cose senza il coinvolgimento di CA. Personalmente lo ritengo altamente probabile. Basandomi su quello che so di psicologia (in particolare psicologia cognitiva), sono arrivato alla consapevolezza di quanto sia manipolabile la mente umana tramite i bias cognitivi e le suggestioni subconscie ottenute attivando l’amigdala. Tutto indica che la macchina di CA sia efficacissima e abbia portato a termine con successo il compito per cui era stata costruita.

I risultati del referendum per la Brexit e per le elezioni presidenziali americane hanno sorpreso i sondaggisti. Il dato è coerente con il modo con cui si sa che Cambridge Analytica operava (e, a quanto ne so, ancora opera) la macchina. Grazie alla targhetizzazione chirurgica permessa dall’Ad Tech, non servono grossi investimenti per raggiungere segmenti specifici. Nel caso di Trump, CA ha concentrato i suoi sforzi negli swing state e in particolare sulle persone che aveva riconosciute come indecise. E non si tratta solo di convincere la gente a votare per un candidato. Ad esempio, CA sapeva che la comunità di Haiti a Miami avrebbe votato in larga maggioranza per Hillary Clinton. Molto difficile convincere un Haitiano a votare Trump, però si poteva forse invogliarlo a non farlo votare proprio, il che avrebbe aiutato comunque Trump. Ciò è avvenuto facendo vedere agli Haitiani di Miami la performance inadeguata della Clinton Foundation nella gestione del terremoto di Haiti alcuni anni prima. Similmente, CA ha preso di mira certi selezionati afro-americani che sapeva essere più sensibili a un frammento di video del 1996 in cui Hillary si riferiva ai neri come “superpredators”. Come sappiamo, negli swing state americani spostare poche decine di migliaia di voti ha impatti enormi sul risultato finale.

In che modo il caso Cambridge Analytica è diverso dal modo in cui pubblicità e propaganda sono sempre stati fatti?

Si può argomentare che l’evoluzione che passa dai giornali, alla radio, alla TV, al web, alla targetizzazione avanzata fino al meccanismo messo su da Cambridge Analytica sia un continuo in cui è difficile individuare un confine esplicito. Eppure qualcosa di diverso c’è ora. Queste tecnologie sono strumenti in grado di influenzare il processo democratico e possono essere usati da chiunque abbia risorse economiche sufficienti per accedervi. Tra queste si possono includere potenze straniere ostili, governi non democratici che vogliono tenere sotto controllo la popolazione e anche privati che trovano più conveniente fare lobby facendo eleggere direttamente i rappresentanti che fanno comodo a loro. Trovo questa situazione sconvolgente.

Yonatan Zuger, un ex-dipendente di Google che si occupa di IA, parla di come Cambridge Analytica stia rappresentando il momento della resa dei conti (reckoning moment) dell’industria tecnologica, un momento simile a quello passato di chi ha inventato la dinamite, le armi chimiche e la bomba atomica. Svanisce l’euforia tra i ricercatori e ci si rende improvvisamente conto delle implicazioni letali che le proprie scoperte possono avere sulla società e sulla vita delle persone. “Per molto tempo sono stato terrorizzato dal fatto che la biologia non avesse ancora avuto la sua “resa dei conti”, cioè un evento che imprimesse indelebilmente nel cuore di ogni giovane scienziato l’importanza dell’etica e le conseguenze [delle proprie scoperte]. Oggi, sono ancora più terrorizzato dagli scienziati informatici”.

Trovo l’allarme lanciato da Zuger assolutamente fondato. La domanda vera che ci pone il caso Cambridge Analytica è: siamo pronti a vivere in un mondo in cui la democrazia è una finzione?

Perché ci accorgiamo solo ora di questo?

I grandi media si occupano di CA solo ora che Christopher Wylie, un ex dipendente di CA trasformatosi in whistleblower, ha fatto delle rivelazioni pubbliche su CA, ma in realtà molti erano al corrente della situazione da tempo e alcuni media minori avevano già parlato del problema nel dicembre 2016 (in particolare Das Magazin). Io stesso avevo portato la cosa all’attenzione di amici e conoscenti già nel gennaio 2017. Avendo una certa visibilità in tutti i tre campi Ad Tech, psicologia e IA, già mi chiedevo da tempo come mai nessuno avesse sfruttato la convergenza di quei tre campi a fine elettorali. Cambridge Analytica è stata la risposta, scioccante, ma non sorprendente.

Cosa fare?

Di preciso non lo so. Come giornali e televisioni hanno regole da seguire anche nei paesi democratici, qualcosa di importante occorrerà fare anche sul fronte del controllo dei dati personali, di chi ha accesso a essi e degli usi che ne fa. Questo include garantire che leggi e protocolli che regolamentano il settore siano rispettati. La GDPR, normativa europea per il controllo dei dati personali del 2016, entrerà in forza a maggio di quest’anno. Essa pone le basi per un controllo più efficace dei dati personali, anche se occorrerà un po’ di tempo per capirne l’efficacia effettiva. Di certo si tratta di un problema con la P maiuscola, dal momento che i dati non sono l’unico aspetto. Se CA avesse ottenuto i dati in modo totalmente legale, il problema di cui stiamo discutendo non si sposterebbe di molto.

Conclusioni

Sentendo parlare di Cambridge Analytica, alcuni reagiscono con scetticismo pensando che si tratti di propaganda elettorale sul web come esiste da anni. Questi sono quelli che assumono che l’approccio di CA sia quello classico della pubblicità che ‘segmenta’ per età, sesso, benessere economico e così via. Purtroppo la realtà è molto più inquietante di così. Tramite profilazione psicologica, CA può sottoporre i propri target ad un vero e proprio “trattamento cognitivo personalizzato” analogo a quello riservato al ferrotranviere dell’Ohio descritto all’inizio. Le persone sottoposte al trattamento avranno idee e opinioni che percepiscono come proprie, quando invece queste sono state indotte del tutto o parzialmente.

Cambridge Analytica ha costruito la prima vera macchina per manipolare il consenso. Da un certo punto di vista, si possono truccare le elezioni operando i brogli direttamente nella mente degli elettori. Chi controlla la macchina ha a disposizione una dashboard con cui influenzare pesantemente il processo democratico. L’intero concetto di democrazia come lo conosciamo ne esce tramutato in una farsa. Questa è una minaccia che i governi di tutti i paesi devono riconoscere e che andrà neutralizzata con leggi e regolamentazioni efficaci.