Ny studie: innovativ metod för att göra AI-beslut mer rättvisa med fokus på social välfärd

Lästid: 2 minuter
Av Juanita Lopez
- i
Vågskålar som balanserar binärkod och sociala symboler.

StockholmForskare från Carnegie Mellon University och Stevens Institute of Technology har utvecklat ett nytt sätt att göra AI-beslut mer rättvisa. I en nyligen publicerad artikel diskuterar de hur optimering av social välfärd kan bidra till rättvisare AI-beslut. Denna metod fokuserar på de totala fördelarna och nackdelarna för individer, snarare än bara godkännandefrekvenser för olika grupper.

Rättvisa inom AI handlar ofta om hur olika grupper behandlas utifrån faktorer som inkomst, ras och kön. Men dessa metoder kan ibland missa hur mycket dessa beslut verkligen påverkar människors liv. Till exempel, om någon nekas ett bolån kan det påverka en person från en missgynnad grupp betydligt mer än någon från en mer privilegierad grupp.

Den nya metoden, social välfärdsoptimering, förändrar vårt sätt att närma oss rättvisa inom AI.

  • Den tar hänsyn till de samlade fördelarna och nackdelarna för individen.
  • Den betonar de faktiska resultaten av beslut.
  • Den kopplar AI-rättvisa till bredare standarder som används inom ekonomi och teknik.

John Hooker, som är professor vid Carnegie Mellon University, bidrog till författandet av en studie. Han presenterade studien vid en konferens som heter CPAIOR i Uppsala, Sverige, den 29 maj. Studien vann priset för bästa artikel på konferensen.

I artikeln diskuteras "alpha fairness," en metod för att säkerställa både rättvisa och effektivitet. Alpha fairness kan anpassas utifrån olika behov vilket hjälper AI-system att fatta beslut som förbättrar resultatet för alla, särskilt för dem som är mindre gynnade.

Derek Leben, en professor i affärsetik vid Tepper School, och Violet Chen, en professor vid Stevens Institute of Technology, har tillsammans författat studien. Chen påpekade att traditionella kriterier för gruppjämlikhet inom AI ofta fokuserar på att jämföra statistik mellan olika grupper och ofta förbiser de verkliga konsekvenserna av besluten. De föreslår en ny metod som mäter gruppjämlikhet genom att förbättra den övergripande sociala välfärden.

Studien framhäver flera viktiga punkter:

  • Traditionella AI-metoder för rättvisa kanske inte tar hänsyn till den verkliga effekten av besluten i världen.
  • Optimering av social välfärd kan skapa bättre resultat för alla, särskilt för missgynnade grupper.
  • Denna metod kan utvärdera nuvarande verktyg för AI-rättvisa och förbättra dem.

Hooker uttryckte att deras resultat bidrar till att förstå hur man kan välja och förklara rättviseregler för grupper. Leben nämnde att studien klargör hur man kan uppnå gruppens rättvisa inom AI. Dessa resultat är värdefulla för AI-utvecklare och beslutsfattare.

Utvecklare kan göra AI-modeller rättvisare genom att betrakta rättvisa ur ett bredare perspektiv. Denna metod uppmärksammar problemen med nuvarande rättvisemetoder och behovet av att ta hänsyn till social rättvisa vid skapandet av AI. Det säkerställer att teknologin är rättvis för alla olika samhällsgrupper.

Artikeln finns med i dokumentationen från konferensen CPAIOR 2024.

Studien publiceras här:

http://dx.doi.org/10.1007/978-3-031-60597-0_14

och dess officiella citering - inklusive författare och tidskrift - är

Violet Chen, J. N. Hooker, Derek Leben. Assessing Group Fairness with Social Welfare Optimization. CPAIOR 2024 Proceedings, 2024 DOI: 10.1007/978-3-031-60597-0_14
Artificiell Intelligens: Senaste nytt

Dela den här artikeln

Kommentarer (0)

Posta en kommentar
NewsWorld

NewsWorld.app är en gratis premium nyhetssida. Vi tillhandahåller oberoende och högkvalitativa nyheter utan att ta betalt per artikel och utan en prenumerationsmodell. NewsWorld anser att allmänna, affärs-, ekonomiska, tekniska och underhållningsnyheter bör vara tillgängliga på en hög nivå gratis. Dessutom är NewsWorld otroligt snabb och använder avancerad teknik för att presentera nyhetsartiklar i ett mycket läsbart och attraktivt format för konsumenten.


© 2024 NewsWorld™. Alla rättigheter reserverade.