La qualità dei dati con cui sono addestrate le intelligenze artificiali è una problematica di grande attualità. Se l’informazione di partenza è fallace, parziale o contiene degli stereotipi, anche il risultato prodotto da un'IA non sarà da meno, con implicazioni la cui gravità dipende dall’utilizzo di questo strumento tecnologico. Non siamo nuovi a situazioni di questo tipo; basti pensare che fino agli anni ’80 del secolo scorso, la medicina aveva un’impostazione androcentrica, con conseguenze rilevanti sulla prevenzione, la diagnosi e la cura di malattie nelle donne (ne abbiamo parlato qui).
Con la democratizzazione dell'accesso ai più moderni e performanti sistemi di intelligenza artificiale generativa, il tema degli stereotipi – o bias – si fa urgente. Nel quadro della Settimana cantonale contro il razzismo 2025, che avrà luogo dal 21 al 30 marzo, la SUPSI organizza delle attività pratiche e divulgative che mirano a sensibilizzare tutta la comunità accademica e la società civile anche su questo argomento; in particolare, con un'attività pratica ed esperienziale (maggiori informazioni qui), attraverso cui si esploreranno gli stereotipi riprodotti nelle immagini e nelle parole degli strumenti di IA. Ad animare queste attività ci sarà anche Alberto Termine, ricercatore SUPSI all'Istituto Dalle Molle di studi sull’intelligenza artificiale (IDSIA USI-SUPSI).
Partiamo dal problema, in che modo le IA incappano negli stereotipi?
"La differenza fondamentale tra le intelligenze artificiali del vicino passato e quelle di oggi risiede nella capacità di queste ultime di apprendere dai dati come comportarsi e agire. Le 'buone vecchie' IA, come vengono talvolta chiamate (Good Old-Fashioned AI, in inglese), prendevano decisioni sulla scorta di una base di conoscenza e di un insieme di regole di ragionamento specificate a monte dai programmatori. Facevano sempre e solo ciò che era stato detto loro di fare, nello specifico, situazione per situazione. Questo tipo di IA è estremamente controllabile e sicuro. Non c’è modo che si verifichino comportamenti inaspettati o imprevisti. D’altro lato, queste IA programmate 'top-down' hanno capacità estremamente limitate. Se si vuole che un'IA svolga compiti complessi occorre invece che sia in grado di apprendere dall’ambiente e adattarsi a situazione impreviste: da qui lo sviluppo, relativamente recente, di macchine capaci di apprendere. Il loro comportamento deriva dall’informazione che estraggono dai dati su cui vengono addestrate: se questi dati contengono informazioni di scarsa qualità, false o eticamente dubbie (per esempio, insulti razzisti, bias di genere e quant’altro), l'IA finirà per apprenderle e usarle per guidare i propri comportamenti e il proprio ragionamento. Se vogliamo delle IA che funzionino in modo appropriato, è pertanto fondamentale dar loro dei dati di qualità, precedentemente ispezionati e ‘ripuliti’, come si dice in gergo, da inesattezze ed errori. Purtroppo, si tratta di un compito tutt'altro che semplice, data l’enorme quantità di dati richiesti per addestrare i sistemi di ultima generazione, come i Chatbots generativi con cui ormai tutti abbiamo a che fare (ChatGPT, GEMINI, LAMA, solo per citarne alcuni)".
RSI Edu ha dedicato una serie di video divulgativi sul funzionamento, sugli errori e sugli sviluppi dell'IA.
Puoi farci degli esempi in cui l’IA ha commosso degli errori anche gravi?
"Un esempio emblematico del problema del bias nei dati viene dai recenti sviluppi dell’IA in campo medico, e nello specifico in dermatologia. Uno dei compiti diagnostici più difficili in dermatologia è quello di distinguere i nevi (tumori benigni della pelle) dai melanomi (carcinomi molto aggressivi e pericolosi). Per supportare i medici in questo compito, sono stati sviluppati dei sistemi di riconoscimento delle immagini basati su IA in grado di distinguere con una precisione incredibile – superiore a quella dell'occhio umano – immagini di nevi e melanomi. Tuttavia, si è notato che, quando questi sistemi venivano applicati su persone con fototipo scuro (carnagione scura o olivastra), le loro performance predittive diminuivano parecchio. Il motivo? Le IA erano state addestrate su database contenenti in prevalenza immagini di persone di carnagione chiara. Non si trattava di un errore intenzionale, semplicemente è molto più facile reperire grandi database di immagini di persone dalla carnagione chiara. In primis, perché i database degli ospedali occidentali (USA ed Europa) sono decisamente più ampi e forniti di quelli dei paesi in via di sviluppo; e poi, perché è in USA, Europa e Cina che si concentra il maggior sforzo in termini di ricerca nel campo dell’IA. Ciò nondimeno, la presenza di questo bias genera conseguenze discriminatorie nei confronti delle persone di colore, che si trovano ad aver accesso a prestazioni diagnostiche sub-ottimali rispetto alle persone di carnagione chiara”.
Oltre agli esempi citati, quali altre conseguenze si possono immaginare?
"Il bias è un problema estremamente pervasivo e difficile da trattare. A volte si pensa sia sufficiente rimuovere le variabili 'sensibili' dai dati per mettere il problema fuori dalla porta, che invece rientra dalla finestra. Facciamo un esempio: immaginate di essere una banca e di utilizzare l'IA per il calcolo del rischio di un cliente, da cui dipende il fatto che concederete o meno un finanziamento. Non volete chiaramente che il sistema elabori la stima sulla base di variabili come ‘genere’ o ‘etnia di provenienza’ del cliente; evitate pertanto di dare questi dati in pasto all'IA e vi limitate a fornirgli dati su 'tipologia di lavoro svolto' e 'reddito'. Può sembrare che il rischio di bias sia eliminato, ma non è così. Potrebbero esistere infatti correlazioni statistiche molto forti (anzi, ci sono!) tra il genere e l'etnia di una persona e altre variabili, come il lavoro svolto, che non sono considerate 'sensibili'. Queste correlazioni vengono apprese dall'IA e sfruttate per formulare delle predizioni: per esempio, se il genere femminile risulta fortemente correlato a un certo tipo di lavoro, l'IA potrebbe usare l’informazione riguardo al lavoro svolto per inferire informazioni sul genere anche se queste non sono date esplicitamente, e quindi usare questa informazione per formulare predizioni che risultano discriminatorie nei confronti delle persone di genere femminile. In questo modo il bias implicito nei dati non solo viene perpetuato, ma può essere persino rafforzato dall’uso dell'IA. Una delle conseguenze più gravi (e sottovalutate) dell’uso inconsapevole e incontrollato dell'IA nei più svariati campi è proprio questa: la diffusione massiva e l’esacerbazione di bias e atteggiamenti discriminatori verso minoranze (etniche, di genere, di status sociale) che non sono adeguatamente rappresentate, o sono mis-rappresentate (nel senso letterale del termine), nei database su cui i sistemi di IA vengono addestrati. Il problema può essere evitato con un uso consapevole e informato dell’IA, nonché promuovendo programmi di ricerca dedicati a sviluppare un’IA etica e responsabile".
Nel mondo della ricerca quanto è sentita questa problematica?
"Il tema del bias è molto sentito nel mondo della ricerca, in particolare accademica. I programmi di ricerca, gli investimenti e le pubblicazioni su tematiche inerenti allo sviluppo di sistemi di IA più fair (equi) e unbiased (senza pregiudizi) sono in costante aumento. I principali centri di ricerca di IA nel mondo, fino a poco tempo fa perlopiù concentrati sullo sviluppo di performance predittive e sulla loro scalabilità, si stanno tutti dotando di competenze interne nel settore dell’etica dell’IA e dell’IA responsabile. La SUPSI, con l’Istituto Dalle Molle di studi sull’intelligenza artificiale, non fa eccezione: da poco è stata infatti inaugurata una cattedra di Epistemologia, Logica ed Etica dell’IA presso il Dipartimento tecnologie innovative, cattedra per cui lavoro, condotta dal Professor Alessandro Facchini".
"Spesso, tuttavia, l’attenzione al problema in ambito accademico non è accompagnata da un’altrettanta attenzione da parte dei media, soprattutto quelli internazionali o di provenienza statunitense. Sembra che la TV, i giornali e la rete preferiscano parlare di cose come: l’intelligenza artificiale che supera quella umana, che prende il controllo e ci uccida tutti (cosiddetto: 'rischio esistenziale'), o che rende inutile il nostro lavoro portando a licenziamenti di massa, e così via. Si tratta in gran parte di rischi e scenari del tutto irrealistici, lontani anni luce dallo stato di avanzamento della tecnologia (spoiler: nessun ChatGPT è in grado di prendere l’iniziativa e sterminarci tutti, men che meno di rimpiazzare in toto il lavoratore umano). Tuttavia, parlare di IA che stermina l’uomo o porta a licenziamenti di massa crea hype mediatico e spinge gli investitori a scommettere i propri capitali su imprese e startup che fanno IA. Notate a questo proposito che spesso gli investimenti dei cosiddetti venture capitalists sono la principale, se non unica, fonte di reddito di molte startup del settore, in particolare quelle che si concentrano sullo sviluppo di sistemi da prestazioni stupefacenti invece che su applicazioni concrete. Peccato, purtroppo, che parlare sempre e solo di rischi poco concreti finisca col distrarre dal conoscere e prevenire quelli che sono i rischi reali, come il bias".
C’è modo di ovviare alla situazione oppure siamo già arrivati a un punto di non ritorno?
"Certamente il problema del bias, come la stragrande maggioranza dei problemi etico-sociali concreti che sorgono dalla ricerca e dallo sviluppo dell’IA, è gestibile e arginabile senza rinunciare ai benefici che questa tecnologia porta con sé. Gli ingredienti fondamentali sono due: formazione e ricerca. Sul fronte della ricerca esistono diversi settori che si dedicano proprio allo studio di metodi per rendere i nostri sistemi di IA più fair e allineati con i valori della nostra società. Io lavoro proprio nell’ambito di uno di questi settori, chiamato IA spiegabile, che si occupa di rendere trasparente agli utenti la logica (e le 'ragioni') che hanno portato un’IA a prendere una certa decisione. In questo modo l’utente finale può ispezionare il ragionamento fatto dalla macchina e decidere se è conforme ai suoi valori e ai suoi standard, anche in termini di fairness e bias".
"La ricerca da sola però non è abbastanza. Per quanto ci sforziamo di costruire sistemi di IA sempre più sicuri, affidabili e fair, vi è una componente di rischio che non è eliminabile. Si può comunque arginare educando gli utenti, ovvero insegnando alle persone ad usare l'IA in modo responsabile ed eticamente corretto, anche se la platea potenziali utenti è sterminata e, oggigiorno, chiunque può accedere a un sistema di IA e usarlo a piacimento".
"Nel nostro piccolo, come SUPSI, stiamo cercando di portare avanti diverse iniziative dedicate a formare la cittadinanza sull’utilizzo responsabile dell'IA. Siamo partiti dalla scuola: docenti, studentesse e studenti, tra i più esposti ai rischi di queste nuove tecnologie, nonché coloro che si troveranno a vivere in un mondo dove l'IA è ovunque. La prossima sfida, da affrontare con le istituzioni e altre realtà locali (ne è un buon esempio la nostra collaborazione con RSI-EDU), è raggiungere la cittadinanza adulta e anziana, spesso più restia a confrontarsi con le nuove tecnologie".
L'immagine nel seguente articolo è stata generata da un'IA.