Uno studio propone un metodo migliore per rendere l'IA più equa per tutti

Tempo di lettura: 2 minuti
Di Fedele Bello
- in
'Bilancia con icone di AI e simboli diversi.'

RomeRicercatori della Carnegie Mellon University e dello Stevens Institute of Technology hanno proposto un metodo per rendere le decisioni dell'IA più eque. Suggeriscono un approccio chiamato ottimizzazione del benessere sociale, che valuta i benefici e i danni per gli individui al fine di garantire risultati giusti.

La correttezza dell'IA viene solitamente valutata confrontando i tassi di approvazione per diversi gruppi, che possono variare in base al livello economico, razza, etnia o genere. John Hooker, professore alla Carnegie Mellon, ha co-scritto uno studio su questo argomento. Ha presentato lo studio alla conferenza CPAIOR il 29 maggio a Uppsala, in Svezia, e il documento ha ricevuto il premio Best Paper Award.

L'intelligenza artificiale determina chi ottiene un mutuo o un colloquio di lavoro. I metodi tradizionali possono garantire che diversi gruppi vengano approvati alle stesse percentuali. Tuttavia, essere rifiutati per un mutuo può danneggiare maggiormente una persona svantaggiata rispetto a una persona avvantaggiata. L'ottimizzazione del benessere sociale mira a creare risultati migliori per tutti, specialmente per coloro che appartengono a gruppi svantaggiati.

Punti principali:

  • Concentrarsi sull'ottimizzazione del benessere sociale per decisioni eque da parte dell'AI.
  • L'equità Alpha equilibra giustizia ed efficienza.
  • La metodologia supera i limiti degli approcci tradizionali alla giustizia.

Gli strumenti per la valutazione dell'equità dell'IA esaminano quanto siano giusti verso vari gruppi. L'ottimizzazione del benessere sociale collega questi strumenti a più ampi standard di equità ed efficienza in settori come l'economia e l'ingegneria. I ricercatori ritengono che questo nuovo metodo possa aiutare a spiegare come raggiungere l'equità di gruppo nell'IA.

Questo studio è rilevante sia per gli sviluppatori di AI che per i responsabili delle politiche. Gli sviluppatori possono comprendere le debolezze dei metodi attuali sulla giustizia e considerare la giustizia sociale quando progettano AI. Questo garantisce che la tecnologia sia equa e avvantaggi tutti i gruppi sociali.

I ricercatori ritengono che i metodi tradizionali potrebbero non essere sufficienti. Approvare la stessa percentuale di persone in ogni gruppo potrebbe non essere davvero equo. Ad esempio, gli effetti del rifiuto di un mutuo possono variare notevolmente tra i diversi gruppi. L’ottimizzazione del benessere sociale cerca di considerare queste differenze.

John Hooker e il suo team ritengono che questo metodo possa generare modelli di intelligenza artificiale più equi e utili. Considerando gli effetti complessivi positivi e negativi, i sistemi di intelligenza artificiale possono aiutare meglio tutti. Ciò è particolarmente rilevante per i gruppi meno fortunati.

Lo studio dimostra che è necessario un nuovo modo di concepire l'equità. I metodi attuali puntano ad ottenere tassi di approvazione uguali, ma ciò potrebbe non essere realmente giusto. Un approccio diverso, chiamato ottimizzazione del benessere sociale, considera gli effetti complessivi delle decisioni per conseguire risultati migliori.

Il documento, presentato al CPAIOR, esamina l'uso dell'ottimizzazione del benessere sociale per migliorare le valutazioni di equità nei sistemi di intelligenza artificiale. Questo approccio può aiutare i sviluppatori a creare modelli di IA più equi che promuovano la giustizia sociale.

Questo nuovo metodo mira a rendere le cose più eque ed efficienti. Ci aiuta a comprendere come realizzare un'IA equa per tutti. È cruciale affinché la tecnologia possa supportare tutte le persone, in particolare quelle meno fortunate.

Lo studio è pubblicato qui:

http://dx.doi.org/10.1007/978-3-031-60597-0_14

e la sua citazione ufficiale - inclusi autori e rivista - è

Violet Chen, J. N. Hooker, Derek Leben. Assessing Group Fairness with Social Welfare Optimization. CPAIOR 2024 Proceedings, 2024 DOI: 10.1007/978-3-031-60597-0_14
Intelligenza Artificiale: Ultime notizie

Condividi questo articolo

Commenti (0)

Pubblica un commento
NewsWorld

NewsWorld.app è un sito di notizie premium gratuito. Forniamo notizie indipendenti e di alta qualità senza addebitare per articolo e senza un modello di abbonamento. NewsWorld ritiene che le notizie generali, di business, economiche, tecnologiche e di intrattenimento dovrebbero essere accessibili a un alto livello gratuitamente. Inoltre, NewsWorld è incredibilmente veloce e utilizza tecnologie avanzate per presentare articoli di notizie in un formato altamente leggibile e attraente per il consumatore.


© 2024 NewsWorld™. Tutti i diritti riservati.