Nuova tecnica AI di Oregon State e Adobe: eliminare i bias sociali nei dati di training
RomeRicercatori dell'Università Statale dell'Oregon e di Adobe hanno sviluppato un nuovo metodo chiamato FairDeDup per addestrare sistemi di intelligenza artificiale. Questa tecnica aiuta a ridurre i pregiudizi sociali nell'AI eliminando i dati duplicati durante il processo di addestramento.
La nuova tecnica migliora un precedente metodo chiamato SemDeDup introducendo misure di equità. I modelli di intelligenza artificiale vengono spesso addestrati con dataset che contengono pregiudizi sociali. Quando questi pregiudizi sono presenti nei modelli, possono portare ad azioni e decisioni ingiuste.
FairDeDup comprime i dati selezionando solo le parti più rilevanti. Questo metodo consiste nel conservare una parte dei dati e rimuovere il resto, garantendo comunque che i dati rimanenti rappresentino adeguatamente l'insieme originale. I ricercatori decidono quali dati mantenere basandosi sul contenuto, assicurando che l'informazione essenziale sia salvaguardata.
Ecco come funziona FairDeDup:
- Elimina i dati ridondanti
- Integra dimensioni di diversità definite umanamente
- Affronta pregiudizi legati a occupazione, razza, genere, età, geografia e cultura
Eric Slyman, dottorando presso il Collegio di Ingegneria dell'OSU, ha guidato la ricerca collaborando con Stefan Lee dell'OSU e con Scott Cohen e Kushal Kafle di Adobe.
I dati raccolti da internet spesso riflettono i pregiudizi della società. Questi pregiudizi possono manifestarsi nei risultati dell'intelligenza artificiale, ad esempio mostrando solo immagini di uomini bianchi quando si cercano amministratori delegati o medici. Il team di Slyman ha studiato l'effetto della rimozione di dati duplicati su questi pregiudizi, scoprendo che l'utilizzo di FairDeDup può ridurre gli esiti negativi.
21 novembre 2024 · 15:27
Gli Stati Uniti dominano l'innovazione AI, la Cina insegue nel ranking di Stanford
FairDeDup punta a ridurre i costi di calcolo e a rendere i sistemi di intelligenza artificiale più equi. Slyman chiarisce che questo metodo non impone all'IA una rigida idea di equità. Piuttosto, consente all'IA di essere giusta in diverse situazioni e per diversi utenti. Questo permette alle persone di decidere cosa è equo in base alle proprie esigenze, senza dipendere da grandi e distorti dataset d'internet.
I ricercatori hanno presentato l'algoritmo FairDeDup al congresso IEEE/CVF sulla Visione Artificiale e il Riconoscimento dei Modelli a Seattle, evidenziando che questo nuovo metodo è economico, preciso e imparziale.
Slyman ha affermato che il loro metodo permette all'IA di apprendere in modo economico, preciso e imparziale. Il team ha scoperto che eliminando le distorsioni nei dati, i sistemi di intelligenza artificiale possono diventare più equi.
Questo metodo aiuta l'IA a prendere decisioni più eque valutando diverse situazioni umane e differenze. Non obbliga l'IA a seguire un unico concetto di equità, bensì permette ai vari utilizzi dell'IA di definire cosa significhi per loro equità.
Questo progresso rappresenta un passo fondamentale nella riduzione dei pregiudizi nei sistemi di intelligenza artificiale. I ricercatori ritengono che FairDeDup contribuirà a rendere l'IA più equa e meno discriminatoria nei confronti dei gruppi emarginati. La collaborazione tra OSU e Adobe mira a migliorare l'equità e l'efficienza dell'IA.
20 novembre 2024 · 17:56
Salto sensoriale: l'AI riconosce le texture delle superfici con tecnologia quantistica
Condividi questo articolo