Online su tutte le piattaforme la prima puntata del podcast che racconta la ricerca informatica: sei puntate per la prima stagione, una al mese da dicembre a maggio
L’Istituto di Informatica e Telematica presenta oggi il primo episodio di “BITbyBIT”, il primo podcast prodotto interamente all’interno del Consiglio Nazionale delle Ricerche.
Il progetto, condotto da Chiara Spinelli (Responsabile della Segreteria per la comunicazione dell’IIT-CNR) e Viola Bachini (comunicatrice scientifica e videomaker), racconta la ricerca informatica attraverso la voce dei ricercatori dell’istituto. Nelle sei puntate che compongono la prima stagione del podcast si parlerà di argomenti come le fake news, la cybersecurity, il quantum computing e la digital health.
Il primo episodio, intitolato “Vero o falso?”, vede ospiti Stefano Cresci, ricercatore presso l’unità di ricerca Cyber Intelligence, e Marinella Petrocchi, ricercatrice senior dell’unità di ricerca Trust, Security and Privacy.
Con loro vengono esplorati argomenti come i bot e le fake news, le comunità discorsive sui social network, l’inquinamento del dibattito pubblico, i limiti cognitivi che ci fanno cadere nella trappola della disinformazione. I due scienziati raccontano nelle loro interviste come la ricerca informatica, analizzando i dati e collaborando con sociologi, economisti e neuroscienziati, cerca di migliorare i mondi digitali che abitiamo tutti i giorni.
Potete ascoltare la puntata sulle principali piattaforme di podcast, in particolare su Spotify e Apple Podcast, o direttamente cliccando sul player qui sotto. Di seguito trovate la versione trascritta della puntata.
[Chiara&Viola] In rete non è facile distinguere il vero dal falso. In questa prima puntata parliamo proprio di questo tema. Partiamo da una storia vera, che risale a qualche anno fa.
L’anno è il 2014, siamo negli Stati Uniti e siamo su Twitter. La protagonista è Jenna Abrams, una influencer molto popolare in quel momento. Ha circa 70.000 follower ed è famosa per le sue opinioni taglienti su un sacco di argomenti, dalle cattive abitudini in metropolitana agli abiti di Kim Kardashian: i suoi tweet vengono letti e condivisi quotidianamente da migliaia di persone.
Passano all’incirca due anni e nel 2016, in piena campagna elettorale per l’elezione del Presidente degli Stati Uniti, a un certo punto Jenna cambia improvvisamente tono e argomenti e inizia a twittare sempre più spesso su temi politici controversi, avvicinandosi alle posizioni di Donald Trump e dell’estrema destra americana.
Esempio di uno dei suoi tweet più famosi e discussi, dice più o meno così: «Alle persone che odiano la bandiera confederata. Lo sapevate che la bandiera e la guerra non riguardavano la schiavitù, ma solo i soldi?».
Il tweet scatena un putiferio e la cosa attira l’attenzione anche di organi di stampa come il New York Times, il Washington Post, la CNN e la BBC. Durante quella campagna elettorale in cui i social giocano un ruolo importantissimo nella battaglia tra i sostenitori di Trump e quelli di Hillary Clinton, Jenna è una delle persone più in vista.
Peccato che Jenna Abrams non sia una persona. Jenna in realtà non è mai esistita. Si trattava di uno dei tanti profili creati da quella che è passata alla storia come “la fabbrica dei troll”, un anonimo edificio di San Pietroburgo, in Russia, dove centinaia di persone lavoravano per manipolare il dibattito intorno alle elezioni americane. Jenna era solo il soldato virtuale di una guerra di opinione condotta a colpi di tweet, per destabilizzare la politica americana e le scelte degli elettori.
La cosa incredibile di tutta questa storia è che nessuno si era accorto dell’inganno, dalla stampa, agli intellettuali, fino ai cittadini che in quel momento usavano i social per informarsi. Jenna Abrams era fatta così bene, era così credibile, che tutti l’avevano ritenuta vera, fino a quando il profilo non era stato scoperto e poi chiuso da Twitter.
Il vero e il falso esistono più o meno da quando l’umanità ha iniziato a socializzare e ad esprimersi: i social network hanno solo contribuito a rendere la questione più complessa, sfumata e soprattutto globale. Per almeno due motivi.
Primo: i social sono spazi popolati da miliardi di persone sparse negli angoli più remoti di tutto il mondo. Sono luoghi in cui le persone si trovano ogni giorno per tenersi in contatto, divertirsi e informarsi. Se una bugia si propaga tra così tante persone sarà più facile che trovi qualcuno disposto a prenderla per una verità incontestabile.
Secondo: i social media non sono emittenti di notizie, come i vecchi media. Sono luoghi in cui sì, ciò che accade nel mondo è discusso e condiviso, ma anche luoghi in cui, a volte, le conversazioni e le narrazioni collettive possono diventare fatti e balzare di nuovo fuori dallo schermo. Alcuni tweet di Elon Musk hanno fatto volare in Borsa e a volte precipitare le azioni delle sue società. I tweet di Trump, quando era Presidente degli Stati Uniti (e quando ancora aveva un profilo Twitter), finivano sulle prime pagine dei quotidiani di tutto il mondo, scatenando reazioni diplomatiche e conseguenze politiche. Insomma: il falso battito d’ali di una farfalla sui social può provocare un vero uragano chissà dove nel mondo.
Stefano Cresci è nell’unità di ricerca Cyber Intelligence dell’Istituto di Informatica e Telematica ed è uno tra i massimi esperti a livello nazionale di identità false sui social network.
[Stefano] Il mio ambito di ricerca è la social media analysis, quindi la raccolta e l’analisi di dati da social media e social network, e ho sempre lavorato nell’ambito dell’individuazione dei falsi in rete.
Quindi sono partito dalla bot detection, l’individuazione degli account automatizzati, e poi mi sono spostato su tutto ciò che riguarda disinformazione online e comportamenti malevoli, come fake news, moderazione delle piattaforme sociali, campagne di disinformazione, eccetera.
[Chiara] Abbiamo imparato in questi anni a conoscere il mondo dei bot, dei falsi followers e falsi profili usati con le peggiori intenzioni, ma forse non ci siamo resi conto che intorno a noi ormai ci sono anche molti bot che possiamo definire “buoni”.
[Stefano] Sì, non tutti i bot sono cattivi. Di fatto i bot sono tecnologia, e la tecnologia molto spesso dipende da come la si usa. Quindi ci sono tanti esempi di bot che sono neutrali o che hanno delle funzioni positive. Ad esempio, ci sono dei chatbot che fanno assistenza ai clienti. Ci sono dei bot che forniscono informazioni utili, ad esempio l’istituto nazionale di geofisica e vulcanologia ha un account automatizzato che dà informazioni sui terremoti rilevati dalla rete sismica, e perfino, ad esempio, il mio account Twitter è parzialmente automatizzato, nel senso che mi aiuta in automatico a mettermi in contatto con ricercatori che studiano cose simili alle mie.
[Viola] Quindi: non tutti i bot sono cattivi. Ma non solo: non tutti i cattivi (sui social) sono per forza bot, anzi. Anche i post di Jenna Abrams, la protagonista della nostra storia iniziale, non erano scritti da algoritmi, ma da persone reali.
Chi cerca di fare operazioni di disinformazione ha bisogno di un vero e proprio esercito di account che siano in grado di fare la stessa cosa in contemporanea, per esempio pubblicare un post con lo stesso contenuto. Quello che conta è far rimbalzare un messaggio da una bacheca all’altra e poco importa se tra le fila di questi soldati social ci siano umani o bot: l’effetto che producono a livello di disordine dell’informazione è lo stesso. Gli esperti come Stefano Cresci in questo caso parlano di coordinated inauthentic behaviour.
[Stefano] Il coordinated inauthentic behaviour è un concetto introdotto da Facebook, e consente di studiare comportamenti coordinati online, dato che, per fare azioni online che abbiano un effetto, bisogna essere in tanti e ben organizzati. Nella maggior parte dei casi questi comportamenti coordinati non sono fatti da bot, quindi da account automatizzati, ma sono fatti da persone, e si possono trovare comportamenti di questo tipo sia in azioni che supportano tipo cantanti, o cose di questo tipo, come anche all’interno di campagne di disinformazione.
[Chiara] C’è un’altra storia, accaduta poco tempo fa negli Stati Uniti, che fa capire molto bene tutte le potenzialità del comportamento coordinato. Nel 2020 la campagna elettorale di Donald Trump doveva aprirsi con un comizio a Tulsa, in Oklahoma.
L’evento era stato organizzato in un palazzetto dello sport enorme per avere una partecipazione massiccia, gli spalti pieni e quindi dimostrare all’America e al mondo quanto il Presidente Trump fosse amato e idolatrato dagli americani. Per accedere bastava prenotare online un posto ovviamente gratuito, fino ad esaurimento, e poi presentarsi il giorno del comizio al palazzetto. Pochi giorni prima dell’evento alcuni gruppi di teenager americani, fan del genere musicale coreano K-Pop, hanno deciso di provare a sabotare il comizio. E coordinandosi tramite i social (in particolare su TikTok) si sono registrati in massa sul sito e hanno prenotato la maggior parte dei posti nel palazzetto. Il giorno del comizio poi hanno scritto tutti lo stesso messaggio all’organizzazione: «Che sfortuna! Mi sono prenotata per il comizio ma ora ho la febbre!» e ovviamente nessuno di loro si è presentato all’evento.
[Viola] Il risultato è stato che a Tulsa non c’era un milione di persone come previsto dagli organizzatori, ma molte, molte di meno, e gli spalti mezzi vuoti del palazzetto sono stati un bel colpo all’immagine vincente che Donald Trump voleva trasmettere.
E se dei “ragazzini” sono riusciti a far fare una figuraccia mondiale al Presidente degli Stati Uniti, pensiamo a cosa può fare uno Stato non democratico che prova ad usare il comportamento coordinato, per esempio, per manipolare l’opinione dei cittadini. Queste attività esistono e vengono definite “information operations”.
[Stefano] Con “information operations” si fa riferimento a delle campagne di manipolazione dell’informazione. Ad esempio ci sono state delle information operations fatte per esempio dalla Russia nell’ambito delle elezioni americane del 2016, oppure dalla Cina per contrastare le proteste di Hong Kong, più recentemente. Queste information operations di fatto si manifestano con il coordinated inauthentic behaviour di cui parlavamo precedentemente. Tra l’altro ci sono anche utenti che sono inconsapevoli e che quindi finiscono per fare il lavoro di chi gestisce queste campagne di disinformazione, semplicemente perché magari trovano una narrativa che gli piace, che è allineata col loro pensiero, e quindi la supportano e la ricondividono. In alcuni casi esistono proprio delle cosiddette troll farm, cioè dei gruppi di utenti che sono pagati, persone che sono pagate, ad esempio da uno stato, da qualche ente, per promuovere queste narrative e per, di fatto, portare avanti queste information operations.
[Chiara] E non si tratta solo di twittare per sostenere un candidato alle elezioni. Abbiamo imparato in questi ultimi mesi che le troll farm possono diventare strumenti di guerra. Secondo analisti inglesi appena invasa l’Ucraina la Russia ha sistematicamente iniziato a manipolare l’opinione pubblica sui social media. Ad esempio, alcuni influencer di Tik Tok sono stati pagati per diffondere messaggi a favore della causa russa dai loro profili. Ma anche: truppe di troll hanno preso di mira gli account social di politici come Boris Johnson e Olaf Scholz o di personaggi del mondo della musica come i Daft Punk e David Guetta.
Non solo profili falsi che rilanciano tweet e post, ma anche persone in carne e ossa pagate un vero e proprio stipendio per supportare la guerra in Ucraina, quella condotta con armi reali sui campi di battaglia, anche con armi “virtuali” sulle piattaforme social.
[Stefano] Per studiare queste information operations il punto di partenza sono ovviamente i dati, i dati che si possono raccogliere dalle piattaforme social. In alcuni casi fortunati le piattaforme, ad esempio Twitter, rilasciano dei dataset apposta per consentire lo studio della disinformazione online. Purtroppo però nella maggior parte dei casi siamo noi stessi che dobbiamo recuperarci i dati, tanti dati, e poi adoperiamo delle tecniche di analisi che vanno ad esempio dalla network science, cioé lo studio delle connessioni tra gli utenti, delle interazioni tra gli utenti, utile per esempio per evidenziare comportamenti coordinati, ma anche tecniche di machine learning e intelligenza artificiale per fare della classificazione, o per esempio per interpretare il linguaggio e quindi le cose che gli utenti si scrivono online.
[Chiara] Il falso non riguarda solo la politica o la guerra. Un paio di anni fa uno studio condotto su Twitter rivelava che i bot hanno un ruolo molto importante nella diffusione di fake news su un altro tema che ci sta a cuore, quello della salute. In particolare, gli account automatici hanno contribuito a far circolare informazioni non verificate contro i vaccini, e già prima del Covid. È stata scoperta una rete di bot e troll legati ancora una volta alla Russia che avevano postato contenuti online per creare disinformazione e dissenso sul tema. I tweet erano sia pro che contro i vaccini, ma tendevano a mischiare le informazioni scientifiche con considerazioni politiche, in particolare sul governo, cercando di far leva sulle emozioni, di scatenare discussioni e polarizzare le opinioni.
[Viola] Con l’epidemia da Coronavirus poi il tema dei vaccini è diventato ancora più centrale. Oltre alla pandemia ci siamo ritrovati in piena infodemia, un’epidemia di informazioni senza controllo: dalle teorie cospirazioniste su Bill Gates come “creatore” del coronavirus, alle campagne prima contro le mascherine e poi contro i vaccini. Ogni fase della pandemia ha visto rimbalzare in rete notizie false di ogni tipo, con effetti spesso molto pericolosi, perché la disinformazione ha alimentato ansie e sospetti da parte della popolazione sulle disposizioni dei governi per contenere e combattere il covid.
False notizie quindi, usate per generare insicurezza e destabilizzare: un tema di cui si occupa Marinella Petrocchi, ricercatrice senior dell’unità “Trust, Security and Privacy” dell’IIT.
[Marinella] Il mio ambito di ricerca giace al confine tra la cyber security e la scienza dei dati. In particolare, mi occupo del fenomeno dei falsi in rete. Da qualche anno, in particolare, del fenomeno delle cosiddette fake news.
[Viola] Si parla genericamente di “fake news”, ma in realtà c’è da fare una distinzione importante:
Chi cerca di fare disinformazione, purtroppo, può contare sull’aiuto del nostro cervello e delle sue caratteristiche cognitive, che spesso, come ci spiega Marinella, ci fanno cadere in queste trappole senza neanche accorgercene.
[Marinella] Le caratteristiche proprie dell’essere umano che ci fanno appunto cascare, ci fanno cadere nell’inganno della fake news, sono svariate. Ad esempio la chiusura cognitiva, che viene anche definita come desiderio di certezza in un mondo incerto. Ecco, a noi non piace rimanere nel dubbio, a noi piace in genere avere delle risposte immediate, certe. Però, ecco, così facendo rischiamo di promuovere un pensiero che è bianco o nero, senza comunque accettare approfondimenti o altri punti di vista. E questo è un terreno fertile per la crescita di estremismo e polarizzazione, e anche per permettere alla disinformazione di fiorire. E poi, ecco, noi preferiamo in genere notizie che confermano il nostro credo preesistente, in questo caso parliamo di esposizione selettiva. E molto simile all’esposizione selettiva è il confirmation bias, ovvero un’informazione che è consistente con il mio pensiero preesistente mi appare più persuasiva. Al di là dei bias cognitivi proprio dell’essere umano, noi siamo esposti quotidianamente ad un volume enorme di informazione, e la nostra capacità di attenzione è limitata. Quindi purtroppo questo ci fa cascare nella tela del ragno, anche se ci mettiamo il massimo dell’impegno perché non sia così.
[Viola] La ricerca però ci può aiutare a orientarci in questa selva di notizie false, individuandole e segnalandole. In particolare i ricercatori come Marinella utilizzano i cosiddetti “classificatori”, algoritmi che vengono allenati sull’analisi dei testi per imparare a distinguerne alcuni elementi di base.
[Marinella] Questo viene fatto anche dandogli una notizia, praticamente, o per esempio un’immagine, un account, di cui parlava Stefano. E quali tipi di caratteristiche possiamo prendere in esame per capire se una notizia è falsa o meno? Bhe, caratteristiche sintattiche, morfologiche, lessicali, addirittura il numero di caratteri, di parole, frasi utilizzate nel testo, ma anche il sentimento che il testo esprime, se esso esprime un sentimento d’odio, un sentimento di gioia, che è negativo verso un gruppo o un individuo, anche l’informalità o la formalità, se si stanno usando abbreviazioni, se si usano brutte parole, se si usano delle intercalari, o dei riempitori, come ad esempio “come sai”, “come si può vedere”. Dando in pasto ad un classificatore un testo con associate le sue caratteristiche, allo stato dell’arte si arriva anche ad una accuratezza del 90% per discriminare una notizia falsa da una notizia vera.
[Chiara] E poi c’è un altro aspetto che ci fa cadere nella trappola della disinformazione: il fatto che online non siamo mai soli, siamo immersi in conversazioni con altri utenti come noi, che spesso la pensano come noi, che rafforzano le nostre opinioni e condividono le stesse notizie. Vedere che un gran numero di persone parla di un tema e si forma un’opinione condivisa può rafforzare la nostra. Questi gruppi di conversazione vengono classificati sui social come “comunità discorsive” e possono anche essere artificiali, cioè organizzate e strutturate dall’alto per diffondere notizie, vere o false che siano. Marinella e i suoi colleghi lavorano sui dati rilasciati dalle piattaforme social per individuarle e studiarle.
[Marinella] Abbiamo la possibilità di prenderli da social network, in particolare da Twitter, che dà la possibilità di prendere i dati attraverso le sue API, attraverso una semplice ricerca a parole chiave abbiamo dataset riguardanti i flussi migratori, per esempio dal Nord Africa all’Italia. Abbiamo dati riguardanti il conflitto ucraino-russo, dati riguardanti il COVID-19, dati sul dibattito sui vaccini. Cosa ci facciamo con questi dati? Iniziamo a estrarre le comunità, appunto, a costruire le comunità che parlano di queste tematiche. Questo si può fare lanciando un algoritmo cosiddetto di rilevamento delle comunità, di community detection in gergo tecnico. Abbiamo trovato che le comunità di persone, di account che parlano di un certo argomento, si proiettano bene sulle comunità politiche italiane. Questo lo possiamo vedere perché ad esempio se studiamo Twitter, Twitter ha degli account cosiddetti verificati, che appartengono a personaggi famosi, quindi è possibile anche conoscere la loro inclinazione politica. E quindi possiamo estendere questa inclinazione politica alle persone della comunità di questi account verificati. Un risultato che secondo noi è abbastanza particolare, e che ha fatto anche abbastanza scalpore nella comunità scientifica, è stato che lo stesso gruppo di bot segue lo stesso gruppo di account. Se questi bot retwittano i tweet i post che crea questa cricca di persone molto popolari, chiaramente ne amplificano tantissimo il messaggio.
[Viola] Quindi, riassumendo, in questi ecosistemi digitali possiamo incontrare persone vere e persone false, leggere notizie autentiche ma anche fatti mai accaduti. A questo punto viene spontaneo chiedersi come si possa migliorare tutto ciò, per distinguere il “buono” dal “cattivo” in rete. Lo abbiamo chiesto a Stefano e Marinella e le loro considerazioni sono molto vicine: non è solo un tema di strumenti informatici, ma anche e soprattutto di persone, di dinamiche sociali e culturali.
[Stefano] La dicotomia tra buono e cattivo, vero e falso, è una grande semplificazione. Nella realtà le cose non sono mai o completamente vere o completamente false, completamente buone o completamente cattive. Stesso discorso anche per i bot, non sono mai o completamente automatizzati o completamente guidati dagli uomini. Quindi il giudizio su queste cose fondamentalmente dipende dal contesto, da chi giudica, e da un sacco di altre cose. Anche gli strumenti informatici che realizziamo quindi dovrebbero cercare di tener conto di tutte queste sfaccettature, e non dividere il mondo in bianco e nero. Noi stessi utenti social, ricercatori, eccetera, pure noi dovremmo cercare di fare lo stesso, di non dividere tutto in bianco e nero e di cercare di tener conto di questa grande complessità.
[Chiara] Poi non ci sono solo gli utenti, ma anche le piattaforme stesse, che forse potrebbero agire in modo più incisivo rispetto a quanto abbiano fatto fino ad oggi. Ma servirebbe davvero a qualcosa?
[Stefano] Le piattaforme e questi ecosistemi online si migliorano innanzitutto accrescendo la nostra consapevolezza su come funzionano le piattaforme e anche su noi stessi. Quindi per esempio il fatto che siamo affetti da una serie di bias cognitivi, il fatto che bisogna migliorare e accrescere il nostro pensiero critico, aumentare la nostra digital literacy, cioè la consapevolezza nell’utilizzo di questi strumenti, di queste tecnologie, e questo potrebbe essere il primo passo per portare ad un utilizzo più consapevole e migliore di questi strumenti. Il ruolo delle piattaforme è importante, perché in casi magari particolarmente gravi si può provare ad applicare degli interventi correttivi, quindi ad esempio della moderazione, per provare a risolvere i problemi che affliggono le piattaforme. In ogni caso va detto che comunque è difficile ottenere gli effetti desiderati. Ci sono stati diversi casi in cui alcune comunità tossiche, aggressive, violente, mi riferisco ad hate speech, sono state chiuse, ma si è visto che gli utenti che facevano parte di queste comunità si sono spostati in altre piattaforme o in altre comunità e sono diventati ancora più violenti. Quindi diciamo che c’è ancora tanto lavoro da fare per capire il ruolo delle piattaforme e come si possono risolvere questi problemi.
[Marinella] Il mio ruolo, e il ruolo dei miei colleghi informatici e ingegneri nella lotta alla disinformazione è certamente quello di studiare nuove tecniche, nuovi algoritmi, che possano discriminare tra una notizia falsa e una vera, tra la presenza di propaganda e di pregiudizio ad esempio in un testo. Però so anche che la parte tecnica, tecnologica non basta.
[Stefano] Io sono un ingegnere informatico, quindi quello che faccio è da un lato provare a capire qualcosa di più e dall’altro fornire soluzioni. Questi problemi però non hanno una origine tecnologica ma sociale e culturale; quindi, delle soluzioni durature devono emergere dal piano sociale e culturale. Sviluppare queste soluzioni richiede tempo e nel frattempo non conviene restare con le mani in mano. l’utilizzo di tecniche di ML e IA ci consente di capire di più su questi fenomeni. in ogni caso però i risultati delle ricerche vanno interpretati dalle persone, quindi gli strumenti, anche quelli intelligenti, da soli non risolvono questi problemi.
[Marinella] Io sono in contatto con colleghi di altre discipline, quali ad esempio economisti, neuroscienziati, filosofi, perché sono loro che ci aiutano a capire ad esempio come modellare i bias cognitivi delle persone, come quantificare il grado di verità in una notizia.
La ricerca deve essere multidisciplinare. Credo anche che la nostra ricerca non abbia il goal di censurare quello che viene passato online. noi dobbiamo riuscire ad arrivare agli utenti uno per uno, a seconda delle loro caratteristiche, per indirizzarli su un tipo di informazione di qualità. Sono 10 anni che mi occupo di questo tipo di ricerca e penso che siamo sulla strada giusta.