Sempre più Paesi stanno introducendo o valutando possibili restrizioni all’uso dei social media da parte dei minori, insieme a richieste di maggiore trasparenza e tutela degli utenti. Parallelamente, le grandi piattaforme come Meta, Google, TikTok e Snapchat sono al centro di accuse legate a dipendenza e impatti negativi sulla salute psicologica.
Si sta affacciando una nuova era in cui non cambia solo il modo in cui utilizziamo i social, ma anche le dinamiche che regolano la vita online e offline, ridefinendo il rapporto tra utenti, piattaforme e istituzioni. E in questo scenario, un ruolo chiave è giocato dall’AI: da un lato contribuisce alla diffusione di informazioni e disinformazione, dall’altro offre strumenti per rilevarle e contrastarle, ponendo nuove sfide sul piano della responsabilità e della regolazione delle piattaforme.
Ne abbiamo parlato con Filippo Menczer, Luddy Distinguished Professor e Direttore dell’Observatory on Social Media (Indiana University), e Silvia Giordano, Professoressa ordinaria all'Istituto sistemi informativi e networking (ISIN) del Dipartimento tecnologie innovative. Il tema sarà approfondito durante l’evento AI & Manipulation: Good vs Evil in programma il 21 aprile 2026 al Dipartimento tecnologie innovative della SUPSI.
Cos’è oggi la “manipolazione online” e perché è diventata un tema così urgente?
La manipolazione è sempre esistita, ma le interazioni sociali online la rendono più semplice da operare e più difficile da smascherare. Sui social non è chiaro se stai parlando con un bot o con un umano, o se stai leggendo notizie vere o false. Così siamo particolarmente vulnerabili agli attacchi alle nostre finanze, alla nostra salute, o alle nostre istituzioni democratiche. La manipolazione serve a influenzare ciò che pensiamo, sentiamo e facciamo negli ambienti digitali, e conseguentemente nella nostra vita. In altre parole, non si manipola solo l’informazione, ma l’intero contesto in cui la interpretiamo.
In che modo la generative AI sta cambiando la produzione e la diffusione di contenuti?
La nostra vulnerabilità alla manipolazione online aumenta ancora di più con gli strumenti di intelligenza artificiali oggi a disposizione. Specialmente con la “generative AI” o i “large language models”, diventa semplice ed economico lanciare attacchi velocemente e su larga scala, per esempio generando contenuti – notizie, immagini o video – falsi ma credibili, e creando eserciti di utenti finti pronti ad amplificare certe narrative o sopprimerne altre.
In questo modo si crea l’impressione che un’opinione, una persona, o una teoria del complotto siano condivise e supportate dalle folle, quando in realtà non è così. Il nostro cervello tende infatti considerare più credibili certe narrative quando pensiamo che abbiano largo supporto popolare.
Quali sono le tecniche più efficaci per rilevare operazioni coordinate e contenuti manipolati?
I contenuti manipolati con l’aiuto di AI, come i video o le immagini deep fake di politici e personaggi pubblici, stanno diventando sempre più difficili da rilevare, non solo per noi umani ma anche per gli algoritmi progettati apposta. E le piattaforme, pur dichiarando di supportarli, sono restie ad adottare sistemi di digital watermarking, ovvero stringhe di informazioni invisibili incorporate nei file per tracciarne l’origine e impedirne eventuali modifiche o riproduzioni non autorizzate.
Sul fronte delle operazioni coordinate, però, abbiamo sviluppato tecniche statistiche sempre più efficaci per rilevare i comportamenti degli utenti e gli schemi di similarità sospetta. Per esempio, non c’è da stupirsi se varie persone condividono un post o un video di una celebrità. Ma se due utenti condividono esattamente gli stessi contenuti generati da fonti oscure, e lo fanno centinaia o migliaia di volte, magari postando negli stessi momenti o ripetendo sequenze di azioni identiche, questi schemi sono sospetti. Possiamo stimare la probabilità che tali “coincidenze” accadano per caso, ma se la probabilità è molto bassa, diciamo uno su un milione, la spiegazione più semplice e credibile è che non si tratti di utenti indipendenti, ma coordinati e controllati da una singola entità.
In questo contesto, cresce anche il ricorso a soluzioni basate su intelligenza artificiale per contrastare la manipolazione. Quanto sono efficaci e quali limiti presentano?
Come tutte le tecnologie, l’intelligenza artificiale può essere usata per fini benevoli o malevoli, e risulta molto efficace in ambo i casi. Ma accanto alle applicazioni volutamente pericolose, come la generazione di contenuti falsi o l’imitazione ingannevole di persone a scopo di manipolazione, stanno emergendo limiti e criticità anche nei casi di applicazioni considerate legittime o con finalità positive.
Per esempio, la frequente interazione con i chatbot senza supervisione o limiti adeguati, in certi casi può favorire forme di dipendenza, radicalizzazione, fino all’istigazione di comportamenti dannosi. Allo stesso modo, i “language models” possono essere usati a scopo educativo, per aiutare gli utenti a capire che una teoria del complotto è falsa o una notizia fuorviante, o possono essere usati da malintenzionati per convincere del contrario. Infine, si aggiunge un limite strutturale: i modelli di AI fanno errori, talvolta gravi, senza segnalare alcuna incertezza. La fiducia riposta nell’autorevolezza di questi modelli può quindi portare a gravi conseguenze.
Guardando al futuro, quali competenze saranno fondamentali per orientarsi in un ecosistema digitale sempre più complesso?
“Alfabetizzazione” è la parola chiave: alfabetizzazione digitale, informativa, e alfabetizzazione all’uso dell’AI. Dovremo acquisire uno “scetticismo misurato” per diminuire la nostra vulnerabilità senza perdere la fiducia nelle fonti attendibili. Dovremo imparare a controllare le fonti originali, a non fidarci delle apparenze, a resistere all’attrazione delle metriche di partecipazione. E dovremo capire come funzionano gli algoritmi di raccomandazione e i modelli generativi, almeno ad un livello tale da permetterci di interpretare ciò che vediamo sui social e di interrogarci sulla relazione tra quello che ci dice un chatbot e la realtà.
Infine, dovremo imparare a comprendere l’impatto delle nostre azioni online, come condivisioni, like e commenti, che contribuiscono a modellare l’ecosistema. La formazione sarà cruciale non sono per imparare a utilizzare e sviluppare queste nuove tecnologie, ma anche per imparare a gestirle con consapevolezza.