06 maggio 2026
dalle 10:30
Abstract
I modelli linguistici di grandi dimensioni offrono nuove funzionalità per favorire l’individuazione, la valutazione e la smentita della disinformazione. Attualmente questo processo è prevalentemente manuale e chi si occupa di smascherare la disinformazione o di verificare i fatti è spesso sopraffatto dalla mole di informazioni da valutare. Basandosi su una metodologia sviluppata dagli esperti del settore, il gruppo di ricerca del PJAIT ha creato ampi set di dati di contenuti web in polacco e in inglese che includono esempi di disinformazione. La disinformazione è stata valutata in dettaglio per verificare la presenza di tecniche persuasive, intenzioni dannose e narrazioni di disinformazione (modelli ricorrenti di disinformazione). I modelli linguistici di grandi dimensioni (LLM) possono essere utilizzati per identificare queste caratteristiche della disinformazione per due scopi: migliorare l'accuratezza del rilevamento della disinformazione (in un approccio basato sulla catena di ragionamento) o supportare l'apprendimento sulla disinformazione, migliorando il ragionamento critico e le competenze didattiche utili per smascherare la disinformazione e verificare i fatti. La presentazione introduce un flusso di lavoro per il rilevamento e lo smascheramento della disinformazione e dimostra come gli LLM possano essere applicati per supportare questo processo.
Biografia
Adam Wierzbicki è Professore Ordinario di Informatica; ricercatore con conoscenze ed esperienze interdisciplinari in informatica, psicologia e sociologia. Lavora presso l’Accademia Polacco-Giapponese di Tecnologia dell’Informazione (PJAIT), dove ricopre il ruolo di Vicepresidente, Responsabile del programma di dottorato (dal 2010, questo programma interdisciplinare ha coinvolto diverse centinaia di studenti) e leader di un gruppo di ricerca in Informatica Sociale. I suoi interessi di ricerca si concentrano sull'informatica sociale, un'area dell'informatica che mira a progettare sistemi informativi e algoritmi tenendo conto del loro impatto sociale e psicologico, nonché dell'impatto reciproco del comportamento umano sui sistemi informativi. Il Prof. Wierzbicki è stato un pioniere della ricerca sulla credibilità dei contenuti web. Nel periodo 2013-2016 ha guidato il progetto Reconcile, che ha studiato metodi di valutazione della credibilità dei contenuti web, aprendo la strada alla ricerca in questo settore prima ancora che venisse coniato il termine “fake news”. È autore della monografia “Web content credibility” (Springer, 2018). I suoi attuali interessi di ricerca includono l’interazione uomo-IA, l’IA nell’istruzione e l’IA responsabile. Attualmente tiene un corso su equità, responsabilità, trasparenza ed etica nelle TIC e nell'IA presso il PJAIT.
Host
Alessandro Facchini, Professore associato in Epistemologia, logica e etica dell’intelligenza artificiale, Co-Responsabile del Corso di laurea in Data Science and Artificial Intelligence del Dipartimento tecnologie innovative della SUPSI e Co-responsabile dell'area scientifica in AI e società dell'Istituto Dalle Molle di studi sull'intelligenza artificiale (IDSIA USI-SUPSI).
Informazioni
L'evento si svolgerà in lingua inglese.
Questa traduzione è stata creata con DeepL.