La ricerca si inserisce nell’ambito del Reinforcement Learning, una disciplina dell’Intelligenza Artificiale che sviluppa sistemi capaci di prendere decisioni in modo sequenziale, come accade in una partita di scacchi.
Nonostante i progressi significativi ottenuti negli ultimi anni grazie alle tecniche basate su Deep Neural Network, queste soluzioni spesso presentano una scarsa interpretabilità, rendendo difficile comprendere e spiegare le ragioni alla base delle decisioni strategiche prese dai sistemi.
Per far fronte a questo limite, il lavoro di Selmonaj e Antonucci si concentra sul miglioramento dell’interpretabilità per i sistemi di controllo di aeromobili in contesti militari, dove la criticità delle decisioni da prendere rende indispensabile comprendere le motivazioni strategiche. In particolare, il lavoro prende in analisi i sistemi multi-agente, in cui una flotta di aeromobili è gestita da un unico sistema intelligente, ampliando ulteriormente le sfide interpretative.
Il progetto è il frutto di una collaborazione di lunga durata tra i team di ricerca SUPSI dell’Istituto Dalle Molle e il DDPS per sviluppare tecnologie di difesa basate su AI che siano "trustworthy", ovvero etiche, trasparenti e affidabili.
Il Best Paper Award è stato conferito durante il Simposio Annuale Modelling and Simulation as enabler for Digital Transformation in NATO and Nations, organizzato dalla Science and Technology Organization (STO), l'organizzazione NATO per la Scienza e la Tecnologia. Un riconoscimento che conferma l’importanza della “spiegabilità” nell’intelligenza artificiale come elemento chiave per il futuro delle tecnologie di difesa e sicurezza.