Onderzoek biedt betere manier om AI-beslissingen eerlijker voor iedereen te maken

Leestijd: 2 minuten
Door Marlo van der Waal
- in
Wegen die AI-pictogrammen met diverse symbolen in balans houden.

AmsterdamOnderzoekers van de Carnegie Mellon University en het Stevens Institute of Technology hebben een voorstel gedaan om AI-beslissingen eerlijker te maken. Ze bevelen een methode aan die 'sociale welvaartsoptimalisatie' wordt genoemd, waarbij zowel de voordelen als de nadelen voor individuen worden meegewogen om tot eerlijke resultaten te komen.

AI-gerechtigheid wordt vaak beoordeeld door goedkeuringspercentages van verschillende groepen met elkaar te vergelijken, waarbij deze groepen kunnen variëren op basis van economische status, ras, etniciteit of geslacht. John Hooker, een professor aan Carnegie Mellon, schreef samen een studie over dit onderwerp. Hij presenteerde de studie op de CPAIOR-conferentie op 29 mei in Uppsala, Zweden, en de paper won de prijs voor Beste Paper.

AI bepaalt wie een hypotheek of sollicitatiegesprek krijgt. Traditionele methoden zorgen er mogelijk voor dat verschillende groepen evenveel worden goedgekeurd. Maar het kan een benadeelde persoon meer schaden dan een bevoorrechte wanneer een hypotheek wordt geweigerd. Sociale welzijnsoptimalisatie streeft ernaar betere resultaten voor iedereen te creëren, vooral voor mensen in benadeelde groepen.

De studie introduceert "alpha fairness," een methode om evenwicht te vinden tussen rechtvaardigheid en efficiëntie. Deze methode kan aangepast worden aan verschillende behoeften. De onderzoekers lichten toe hoe sociaal welzijn optimalisatie helpt bij het vergelijken van diverse AI-beoordelingen op het gebied van eerlijkheid.

Hoofdlijnen:

  • De nadruk ligt op het optimaliseren van het sociale welzijn voor eerlijke AI-beslissingen.
  • Alpha-fairness zorgt voor een balans tussen eerlijkheid en efficiëntie.
  • Deze methode pakt de beperkingen van traditionele benaderingen van eerlijkheid aan.

AI-gereedschappen voor eerlijkheid beoordelen hoe eerlijk ze zijn voor verschillende groepen. Optimalisatie van sociale welvaart koppelt deze gereedschappen aan bredere eerlijkheids- en efficiëntienormen in vakgebieden zoals economie en techniek. De onderzoekers geloven dat deze nieuwe methode kan helpen uitleggen hoe groepsgerechtigheid in AI bereikt kan worden.

Deze studie is van belang voor zowel AI-ontwikkelaars als beleidsmakers. Ontwikkelaars kunnen inzicht krijgen in de tekortkomingen van huidige methoden voor eerlijke AI en rekening houden met sociale rechtvaardigheid bij het creëren van nieuwe systemen. Dit draagt bij aan het waarborgen van een eerlijke technologie die ten goede komt aan alle groepen in de samenleving.

De onderzoekers denken dat traditionele methoden mogelijk niet voldoende zijn. Het goedkeuren van hetzelfde percentage aan mensen uit elke groep is misschien niet werkelijk eerlijk. Bijvoorbeeld, de gevolgen van het geweigerd krijgen van een hypotheek kunnen sterk verschillen tussen diverse groepen. Optimalisatie van sociaal welzijn probeert rekening te houden met deze verschillen.

John Hooker en zijn team geloven dat deze methode eerlijkere en nuttigere AI-modellen kan opleveren. Door zowel de positieve als negatieve effecten te beschouwen, kunnen AI-systemen iedereen beter helpen. Dit is vooral belangrijk voor kansarme groepen.

Uit het onderzoek blijkt dat we op een nieuwe manier over rechtvaardigheid moeten nadenken. Huidige methoden streven naar gelijke goedkeuringspercentages, maar dat is mogelijk niet echt eerlijk. Een andere benadering, genaamd optimalisatie van sociaal welzijn, kijkt naar de algehele effecten van beslissingen om betere resultaten te bereiken.

Het artikel, gepresenteerd op CPAIOR, onderzoekt het gebruik van sociale welzijnsoptimalisatie om betere beoordelingen van AI-rechtvaardigheid te maken. Deze aanpak kan ontwikkelaars helpen om eerlijkere AI-modellen te bouwen die sociale rechtvaardigheid bevorderen.

Deze nieuwe methode streeft ernaar om zaken eerlijk en efficiënt te maken. Het helpt ons te begrijpen hoe we AI eerlijk voor iedereen kunnen maken. Dit is belangrijk zodat technologie alle mensen helpt, vooral degenen die minder fortuinlijk zijn.

De studie is hier gepubliceerd:

http://dx.doi.org/10.1007/978-3-031-60597-0_14

en de officiële citatie - inclusief auteurs en tijdschrift - is

Violet Chen, J. N. Hooker, Derek Leben. Assessing Group Fairness with Social Welfare Optimization. CPAIOR 2024 Proceedings, 2024 DOI: 10.1007/978-3-031-60597-0_14
Artificial Intelligence: Laatste nieuws

Deel dit artikel

Reacties (0)

Plaats een reactie
NewsWorld

NewsWorld.app is dé gratis premium nieuwssite van Nederland. Wij bieden onafhankelijk en kwalitatief hoogwaardig nieuws zonder daarvoor geld per artikel te rekenen en zonder abonnementsvorm. NewsWorld is van mening dat zowel algemeen, zakelijk, economisch, tech als entertainment nieuws op een hoog niveau gratis toegankelijk moet zijn. Daarbij is NewsWorld razend snel en werkt het met geavanceerde technologie om de nieuwsartikelen in een zeer leesbare en attractieve vorm aan te bieden aan de consument. Dus wil je gratis nieuws zonder betaalmuur (paywall), dan ben je bij NewsWorld aan het goede adres. Wij blijven ons inzetten voor hoogwaardige gratis artikelen zodat jij altijd op de hoogte kan blijven!


© 2024 NewsWorld™. Alle rechten voorbehouden.