Nowe badanie: innowacyjne podejście do zwiększenia sprawiedliwości decyzji AI przez nacisk na dobro społeczne

Czas czytania: 2 minut
Przez Juanita Lopez
- w
Wagi równoważące kod binarny i symbole społeczne.

WarsawNaukowcy z Carnegie Mellon University i Stevens Institute of Technology opracowali nowy sposób na uczynienie decyzji AI bardziej sprawiedliwymi. W ostatnim artykule przedstawiają, jak optymalizacja dobrobytu społecznego może przyczynić się do sprawiedliwszych decyzji podejmowanych przez AI. Ta metoda koncentruje się na ogólnych korzyściach i szkodach dla jednostek, zamiast jedynie na wskaźnikach akceptacji dla różnych grup.

Sprawiedliwość AI często dotyczy analizy, jak różne grupy społeczne są traktowane ze względu na takie czynniki jak dochód, rasa czy płeć. Jednak takie metody mogą nie uwzględniać rzeczywistego wpływu tych decyzji na codzienne życie ludzi. Na przykład odmowa udzielenia kredytu hipotecznego osobie z grupy defaworyzowanej może mieć znacznie większe konsekwencje niż dla osoby z grupy o wyższych przywilejach.

Nowa metoda, optymalizacja dobrobytu społecznego, zmienia nasze podejście do sprawiedliwości w sztucznej inteligencji.

  • Rozważa ogólne korzyści i szkody dla jednostek.
  • Skupia się na rzeczywistych skutkach podejmowanych decyzji.
  • Łączy sprawiedliwość AI z szerszymi standardami stosowanymi w ekonomii i inżynierii.

John Hooker, profesor z Uniwersytetu Carnegie Mellon, współtworzył badanie naukowe. Przedstawił wyniki badań na konferencji CPAIOR, która odbyła się 29 maja w Uppsali w Szwecji. Za tę pracę otrzymano nagrodę za Najlepszy Referat na konferencji.

Artykuł omawia koncepcję "sprawiedliwości alfa", która łączy w sobie elementy sprawiedliwości i efektywności. Sprawiedliwość alfa można dostosowywać w zależności od konkretnych potrzeb, co pozwala systemom AI podejmować decyzje poprawiające wyniki dla wszystkich, szczególnie dla osób mniej uprzywilejowanych.

Derek Leben, profesor etyki biznesu na Tepper School, oraz Violet Chen, profesor na Stevens Institute of Technology, współautorki badania. Chen zauważyła, że typowe kryteria sprawiedliwości grupowej w AI skupiają się na porównywaniu statystyk między różnymi grupami, często pomijając rzeczywisty wpływ decyzji. Proponują nową metodę, która bezpośrednio mierzy sprawiedliwość grupową poprzez zwiększenie ogólnego dobrobytu społecznego.

Badanie podkreśla kilka kluczowych aspektów:

  • Tradycyjne metody zapewniania sprawiedliwości w AI mogą nie uwzględniać rzeczywistego wpływu podejmowanych decyzji.
  • Optymalizacja dobrobytu społecznego może przynieść lepsze rezultaty dla wszystkich, zwłaszcza dla grup znajdujących się w niekorzystnej sytuacji.
  • Ta metoda pozwala na ocenę obecnych narzędzi dla sprawiedliwości AI i ich udoskonalenie.

Hooker uważa, że ich odkrycia pomagają zrozumieć, jak wybierać i wyjaśniać zasady sprawiedliwości dla grup. Leben wspomniał, że badanie wyjaśnia, jak osiągnąć sprawiedliwość grupową w sztucznej inteligencji. Te ustalenia są przydatne dla twórców AI oraz decydentów politycznych.

Programiści mogą uczynić modele AI bardziej sprawiedliwymi poprzez szersze spojrzenie na kwestie sprawiedliwości. Takie podejście uwypukla problemy z obecnymi metodami związanymi z dążeniem do sprawiedliwości oraz potrzebę uwzględnienia sprawiedliwości społecznej przy tworzeniu systemów AI. W efekcie, pomaga to zapewnić, że technologia jest uczciwa wobec wszystkich różnych grup społecznych.

Artykuł znajduje się w materiałach konferencyjnych CPAIOR 2024.

Badanie jest publikowane tutaj:

http://dx.doi.org/10.1007/978-3-031-60597-0_14

i jego oficjalne cytowanie - w tym autorzy i czasopismo - to

Violet Chen, J. N. Hooker, Derek Leben. Assessing Group Fairness with Social Welfare Optimization. CPAIOR 2024 Proceedings, 2024 DOI: 10.1007/978-3-031-60597-0_14
Sztuczna Inteligencja: Najnowsze wiadomości

Udostępnij ten artykuł

Komentarze (0)

Opublikuj komentarz