iit_cnr_logo
chi siamo ricerca tecnologia progetti formazione collaborazioni news scopus intranet
cnr_logo
chi siamo ricerca tecnologia progetti formazione collaborazioni news scopus intranet

NEWS

condividi: facebook_icon twitter_icon

Dalla classifica di popolarità alla caccia al bot: così studiamo i social da 10 anni

Maurizio Tesconi guida l'Unità di ricerca Cyber Intelligence dell’IIT-CNR, che studia i social netwok per tracciare bot e disinformazione.

Esistono solo da 10-15 anni, eppure oggi sarebbe difficile immaginare la quotidianità senza poterli consultare. Per miliardi di persone in tutto il mondo, i social network rappresentano i primi spazi dove condividere una novità della propria vita o lanciarsi in accalorate discussioni sull’attualità.

L’importanza del fenomeno non è sfuggita ai ricercatori, che da tempo studiano i comportamenti delle persone sulle piattaforme. Tra questi, ci sono gli informatici dell’Unità di ricerca Cyber Intelligence dell’Istituto di Informatica e Telematica, che da anni analizzano dati provenienti dal web e dai social network. “Ho iniziato a studiare i social verso il 2010. L’argomento mi ha appassionato da subito”, ricorda Maurizio Tesconi, responsabile dell’unità. Tra i primi progetti nati da questo interesse c’è Social Trend, un’applicazione web che, a partire dai dati dei social, stila una classifica di popolarità degli account più in vista (giornalisti, attori, quotidiani, partiti..) e ne monitora l’evoluzione del tempo.

Dalla gestione dell’emergenza all’intelligence

In seguito, i ricercatori hanno pensato di sfruttare la grande quantità di informazioni che si possono ricavare dai social network per gestire le situazioni di emergenza. “L’idea alla base del progetto Social sensing è di utilizzare le persone come sensori sociali in caso di calamità o disastro naturale”, spiega Tesconi.

Ecco così che, per esempio, i tweet geolocalizzati che provengono da una città colpita da un sisma, se opportunamente raccolti ed elaborati, possono fornire indicazioni utili per chi deve prestare soccorso. E possono farlo in modo molto più rapido rispetto ai canali tradizionali, segnalando per esempio le zone più colpite o la presenza di feriti. Gli esperimenti hanno dimostrato l’efficacia di questo tipo di sistemi.

A partire da questi risultati incoraggianti, Tesconi e colleghi hanno pensato di applicare lo stesso metodo nel mondo dell’intelligence. Perché, in fondo, un attacco terroristico può, sotto molti aspetti, essere paragonato a una calamità: quando esplode una bomba si deve capire, nel tempo più breve possibile se ci sono feriti e dove eventualmente si trovano, per prestare loro soccorso.

Dagli studi nel campo dell’intelligence è nata anche una collaborazione con il Ministero dell’Interno e Polizia di Stato, durata diversi anni. Il laboratorio congiunto si chiamava Craim e ha visto i ricercatori del CNR impegnati a realizzare strumenti utili per le indagini, da tecniche di riconoscimento facciale ad analisi sui social network.

Bot, sui social e in finanza

“Rimanendo sempre nell’ambito dell’intelligence, abbiamo quindi iniziato ad occuparci di bot”, prosegue Tesconi. I bot sono account automatici, programmati con uno scopo ben preciso. Sui social in genere si tratta di profili falsi, dietro i quali dei veri e propri robot si spacciano per persone, portando avanti anche scopi malevoli, come la truffa o la manipolazione di discussioni online. “Abbiamo iniziato studiando i cosiddetti fake follower, social bot molto semplici, che servono a gonfiare artificialmente il numero di follower di aspiranti influencer”. L’obiettivo era quello di mettere a punto un programma di detection, in grado cioè di individuare in automatico gli account fasulli.

Durante gli esperimenti, gli informatici si sono scontrati con la difficoltà a reperire esempi di utenti falsi, fondamentali per addestrare gli algoritmi di riconoscimento, che funzionano con la tecnica del machine learning.

“Così un giorno ci siamo addirittura ritrovati ad acquistare fake follower”, sorride. Negli anni gli studi sono proseguiti e le tecniche si sono fatte sempre più raffinate. Si è allargato anche il raggio di azione degli algoritmi di detection messo a punto dall’unità Cyber Intelligence, che adesso non è più solo limitato ai sedicenti influencer. “Abbiamo anche un filone sulla finanza e uno sulle monete virtuali, che risentono dell’influenza di bot e falsi account molto più di quanto ci si potrebbe immaginare”, spiega Tesconi.

Nello stesso ambito, i ricercatori stanno portando avanti un filone che punta a migliorare la distinzione tra bot, umani e troll. “Perché i bot sono sempre più sofisticati e distinguerli dagli umani in carne e ossa diventa complicato. In questi mesi ci stiamo cimentando con una nuova tecnica che controlla il contenuto delle frasi twittate dai vari profili, e attraverso un’analisi del testo, esprime un parere sull’autenticità del profilo”.

La particolarità di quest’ultimo studio sta nell’utilizzo del deepfake, che sfrutta grandi potenze di calcolo e immense quantità di dati.

Disinformazione e fake news

Oltre agli account falsi, si sa, ci sono i contenuti falsi. L’unità di ricerca Cyber Intelligence si occupa ormai da un po’ di tempo anche di disinformazione. Uno degli ultimi studi in materia è stato pubblicato sulla prestigiosa rivista Plos One, ed ha per protagoniste le elezioni europee del 2019. Gli scienziati hanno seguito account di vario tipo e studiato i contenuti da loro postati, avendo cura di distinguere tra le fonti di informazione affidabili e quelle di dubbia attendibilità. Ricostruendo la rete delle interazioni, si sono accorti che i siti che fanno disinformazione rimangono spesso piuttosto aute-referenziali. In altre parole, le cattive informazioni circolano meno di quanto si potrebbe pensare. Con lo stesso metodo, si stanno ora focalizzando sul tema coronavirus, per svelare quali sono i contenuti più ritwittati sull’argomento durante i concitati momenti dell’emergenza.

“Infine, sempre sul Covid, abbiamo appena scovato un gruppo di utenti sospetti che sfruttava le parole chiave legate all’emergenza per amplificare messaggi promozionali e portare gli altri utenti su canali di vendita di prodotti che non hanno niente a che vedere con il tema”.

condividi: facebook_icon twitter_icon
tutte le news