27 maggio 2025
dalle 13:30 alle 15:00
Francesca Doneda
AI vs. Human Candidates: A Performance Comparison in Logic Questions
Questo studio esplora l’intelligenza e la fallibilità confrontando le prestazioni di esseri umani e intelligenze artificiali in test basati sulla logica. Poiché i test logici e psicometrici stanno diventando strumenti chiave per valutare le capacità cognitive, questa ricerca si basa sull’approccio comportamentale di Alan Turing per analizzarne l’efficacia. In particolare, esaminiamo un caso di studio utilizzando i dati di due edizioni della prova preselettiva della Scuola Nazionale dell’Amministrazione, in cui candidati umani e sistemi di AI hanno risposto agli stessi quesiti logici.
La domanda centrale è: Cosa possiamo apprendere confrontando direttamente le prestazioni di esseri umani e AI sugli stessi problemi logici? Analizzando questi risultati, miriamo a comprendere meglio i punti di forza e le limitazioni di ciascun gruppo nella risoluzione logica di problemi, offrendo spunti sulle loro potenziali applicazioni e implicazioni etiche.
Biografia: Francesca Doneda è dottoranda nel programma "La mente umana e le sue spiegazioni: linguaggio, cervello e ragionamento", offerto dall’Università degli Studi di Milano, IUSS di Pavia e Scuola Normale Superiore di Pisa. Fa parte del laboratorio LUCI (Logic, Uncertainty, Computation and Information) del Dipartimento di Filosofia dell’Università degli Studi di Milano.
I suoi interessi di ricerca includono lo sviluppo di modelli logici con impatto su tematiche sociali rilevanti: modelli di ragionamento simbolico per il rilevamento della disinformazione, valutazione dell’affidabilità delle fonti e strategie per analizzare l’uso della logica nei processi di selezione della pubblica amministrazione italiana.
Giuseppe Primiero
From trust evaluation to trust preservation over copies for ML systems
(lavoro congiunto con Leonardo Ceragioli)
Una pratica comune nello sviluppo dei sistemi di apprendimento automatico riguarda l’addestramento dello stesso modello su diversi set di dati, nonché l’utilizzo degli stessi set (di addestramento e di test) per modelli di apprendimento differenti. Il primo caso è una pratica auspicabile per identificare condizioni di addestramento di alta qualità e prive di bias. Il secondo caso coincide con la ricerca di modelli ottimali su un dataset comune. Questi sistemi ottenuti in modi diversi sono spesso considerati simili a copie.
Nel contesto dell’AI responsabile, una domanda legittima ma poco esplorata è come verificare che l’affidabilità venga mantenuta attraverso queste copie. In questo lavoro introduciamo un calcolo per modellare e verificare interrogazioni probabilistiche complesse sui dati, e definiamo diverse nozioni di affidabilità, analizzando come si compongono tra loro e attraverso operazioni logiche. L’obiettivo è fornire uno strumento computazionale per verificare l’affidabilità di sistemi complessi ottenuti come copie da un originale di cui si conosce il comportamento.
Biografia: Giuseppe Primiero è Professore di Logica presso il laboratorio LUCI (Logic, Uncertainty, Computation and Information) del Dipartimento di Filosofia dell’Università degli Studi di Milano. È Direttore Scientifico del centro di ricerca PHILTECH, Research Center for The Philosophy of Technology e Coordinatore del corso di laurea magistrale in Human-Centered AI. Il Prof. Primiero si occupa di modellazione formale e verifica di sistemi multi-agente, con applicazioni all’AI simbolica e sub-simbolica. I suoi strumenti preferiti sono i sistemi di dimostrazione, le logiche modali e le logiche computazionali.