Nowe badanie naukowe pokazuje, jak poprawa dobrobytu społecznego może uczynić AI sprawiedliwszym.

Czas czytania: 2 minut
Przez Maria Lopez
- w
Szale równoważące ikony AI z różnorodnymi symbolami.

WarsawNaukowcy z Carnegie Mellon University i Stevens Institute of Technology zaproponowali sposób na uczynienie decyzji podejmowanych przez sztuczną inteligencję bardziej sprawiedliwymi. Zalecają zastosowanie metody nazwaną optymalizacją dobrobytu społecznego, która uwzględnia korzyści i szkody dla jednostek, aby zapewnić uczciwe wyniki.

Na ogół ocena sprawiedliwości sztucznej inteligencji opiera się na porównaniu wskaźników akceptacji dla różnych grup, które mogą się różnić pod względem poziomu ekonomicznego, rasy, etniczności czy płci. Profesor John Hooker z Uniwersytetu Carnegie Mellon współtworzył badanie na ten temat. Badanie to zaprezentował na konferencji CPAIOR 29 maja w Uppsali, w Szwecji, a ich artykuł zdobył nagrodę za najlepszy artykuł.

Sztuczna inteligencja decyduje, kto otrzyma kredyt hipoteczny lub zaproszenie na rozmowę kwalifikacyjną. Tradycyjne metody mogą zapewniać, że różne grupy mają takie same wskaźniki akceptacji. Jednak odmowa przyznania kredytu hipotecznego może bardziej zaszkodzić osobie z grupy mniej uprzywilejowanej niż tej z grupy uprzywilejowanej. Optymalizacja dobrobytu społecznego koncentruje się na osiągnięciu lepszych rezultatów dla wszystkich, ze szczególnym uwzględnieniem grup mniej chronionych.

Badanie przedstawia pojęcie "sprawiedliwości alfa," które umożliwia równoważenie sprawiedliwości i efektywności. Może być dostosowywane w zależności od różnych potrzeb. Naukowcy opisują, w jaki sposób optymalizacja dobrobytu społecznego pomaga porównywać różne oceny sprawiedliwości w sztucznej inteligencji.

Główne punkty:

  • Skupienie na optymalizacji dobrostanu społecznego dla sprawiedliwych decyzji AI.
  • Sprawiedliwość alfa równoważy sprawiedliwość i efektywność.
  • Metoda ta rozwiązuje ograniczenia tradycyjnych podejść do sprawiedliwości.

Narzędzia do oceny sprawiedliwości AI analizują, jak sprawiedliwe są wobec różnych grup. Optymalizacja dobrobytu społecznego łączy te narzędzia z szerszymi standardami sprawiedliwości i efektywności w dziedzinach takich jak ekonomia i inżynieria. Badacze uważają, że ta nowa metoda może pomóc wyjaśnić, jak osiągnąć sprawiedliwość grupową w AI.

Badanie to ma znaczenie zarówno dla twórców sztucznej inteligencji, jak i decydentów politycznych. Twórcy mogą zrozumieć słabości obecnych metod zapewniania sprawiedliwości i zastanowić się nad kwestiami sprawiedliwości społecznej przy tworzeniu AI. Dzięki temu technologia może być bardziej sprawiedliwa i przynosić korzyści wszystkim grupom społecznym.

Badacze uważają, że tradycyjne metody mogą nie być wystarczające. Zatwierdzanie takiego samego procentu osób z każdej grupy niekoniecznie jest naprawdę sprawiedliwe. Na przykład, skutki odmowy przyznania kredytu hipotecznego mogą znacznie się różnić między różnymi grupami. Optymalizacja dobrobytu społecznego stara się uwzględnić te różnice.

John Hooker i jego zespół uważają, że ta metoda może prowadzić do tworzenia bardziej sprawiedliwych i użytecznych modeli AI. Analizując wszystkie pozytywne i negatywne skutki, systemy AI mogą lepiej wspierać wszystkich. Jest to szczególnie istotne dla mniej uprzywilejowanych grup.

Badanie wskazuje, że potrzebujemy nowego sposobu myślenia o sprawiedliwości. Obecne metody dążą do uzyskania równych wskaźników akceptacji, ale niekoniecznie jest to naprawdę sprawiedliwe. Alternatywne podejście, zwane optymalizacją dobrobytu społecznego, bada ogólne skutki decyzji, aby osiągnąć lepsze rezultaty.

Praca przedstawiona na konferencji CPAIOR analizuje sposób wykorzystania optymalizacji dobrobytu społecznego do lepszej oceny sprawiedliwości sztucznej inteligencji. Dzięki tej metodzie twórcy mogą tworzyć bardziej sprawiedliwe modele AI wspierające sprawiedliwość społeczną.

Ta nowa metoda dąży do zapewnienia sprawiedliwości i efektywności. Pomaga nam zrozumieć, jak uczynić AI sprawiedliwym dla wszystkich. Jest to istotne, aby technologia wspierała wszystkich ludzi, zwłaszcza tych mniej uprzywilejowanych.

Badanie jest publikowane tutaj:

http://dx.doi.org/10.1007/978-3-031-60597-0_14

i jego oficjalne cytowanie - w tym autorzy i czasopismo - to

Violet Chen, J. N. Hooker, Derek Leben. Assessing Group Fairness with Social Welfare Optimization. CPAIOR 2024 Proceedings, 2024 DOI: 10.1007/978-3-031-60597-0_14
Sztuczna Inteligencja: Najnowsze wiadomości

Udostępnij ten artykuł

Komentarze (0)

Opublikuj komentarz