Nuova ricerca: ridurre le 'allucinazioni' dell'IA con la rilevazione di anomalie nelle infrastrutture critiche
RomeGli scienziati della Scuola di Informatica di Bristol hanno compiuto progressi significativi nella correzione degli errori dell'IA e nel miglioramento dell'individuazione di problemi imprevisti nei sistemi pubblici essenziali. Questi miglioramenti sono cruciali per rendere più affidabili i sistemi che supervisionano e gestiscono i servizi pubblici chiave.
Sviluppi fondamentali riguardano:
- Rilevamento Avanzato delle Anomalie: Nuovi algoritmi riducono drasticamente i tempi di addestramento e accelerano il rilevamento senza sacrificare l'efficienza.
- Integrazione dell'Intelligenza Artificiale Spiegabile (XAI): I modelli XAI sono ora inclusi nel sistema, aiutando gli operatori umani a comprendere le decisioni dell'IA.
- Decisioni Centrali sull'Umano: La supervisione umana è prioritizzata nelle decisioni guidate dall'IA, garantendo responsabilità.
- Sviluppo di un Sistema di Punteggio: Un nuovo sistema di punteggio per valutare le spiegazioni dell'IA viene creato per aiutare gli operatori a determinare l'affidabilità delle intuizioni dell'IA.
Le nuove innovazioni apportano grandi vantaggi alle infrastrutture critiche come gli impianti di trattamento delle acque e le reti elettriche. Queste strutture necessitano di una rapida e chiara individuazione dei problemi per evitare interruzioni. I modelli di IA tradizionali richiedono molto addestramento e i loro risultati sono spesso difficili da interpretare. I nuovi algoritmi, invece, sono più efficienti e di più semplice comprensione.
I ricercatori dell'Università di Tecnologia e Design di Singapore hanno testato i loro algoritmi utilizzando il sistema di test SWaT (Secure Water Treatment). I dati reali di trattamento delle acque li hanno aiutati a verificare i loro modelli. I risultati sono stati positivi, dimostrando che i nuovi modelli di intelligenza artificiale possono individuare rapidamente le anomalie con elevata precisione.
L'uso dei modelli XAI rivoluziona tutto. In molti settori, l'IA prende decisioni senza spiegare le proprie motivazioni, il che può indurre sfiducia e riluttanza nell'adozione. Con l'XAI, gli utenti possono comprendere perché l'IA ha fatto una determinata raccomandazione, il che favorisce la fiducia e rende il sistema più trasparente e facile da verificare.
21 novembre 2024 · 15:27
Gli Stati Uniti dominano l'innovazione AI, la Cina insegue nel ranking di Stanford
Secondo il dottor Sarad Venugopalan, le macchine sono abili nell'eseguire rapidamente compiti ripetitivi commettendo pochi errori, ma l'automazione presenta anche delle criticità. È fondamentale che le raccomandazioni fornite dall'AI siano chiare, affinché le persone possano prendere decisioni informate. Questo aspetto diventa cruciale in settori in cui le decisioni basate sull'intelligenza artificiale ricadono sulla responsabilità umana.
Abbiamo in programma di sviluppare un sistema di valutazione che indicherà quanto precisa e sicura sia l'intelligenza artificiale nelle sue spiegazioni. Questo permetterà alle persone di capire l'affidabilità delle intuizioni dell'AI prima di prendere decisioni basate su di esse.
Il team del Dr. Sridhar Adepu sottolinea l'importanza di un'IA comprensibile per le persone. L'obiettivo è mantenere operatori umani coinvolti nel processo decisionale per aumentare l'efficacia e l'affidabilità degli strumenti che individuano problemi nei sistemi critici.
Questi progressi mirano a rendere l'IA più efficiente nel rilevare problemi rapidamente. Inoltre, si proiettano a garantire che l'IA possa collaborare efficacemente con le persone, mantenendo i sistemi fondamentali sicuri e affidabili.
20 novembre 2024 · 17:56
Salto sensoriale: l'AI riconosce le texture delle superfici con tecnologia quantistica
Condividi questo articolo