Nowe badanie: innowacyjna metoda FairDeDup w szkoleniu AI zmniejsza uprzedzenia społeczne

Czas czytania: 2 minut
Przez Pedro Martinez
- w
Koncepcja abstrakcyjnej sztucznej inteligencji z wagami i sprawiedliwością.

WarsawNaukowcy z Uniwersytetu Stanowego w Oregonie oraz Adobe opracowali nową metodę o nazwie FairDeDup do trenowania systemów AI. Ta technika pomaga zmniejszać społeczne uprzedzenia w sztucznej inteligencji poprzez usuwanie zduplikowanych danych podczas procesu szkolenia.

Nowa technika stanowi udoskonalenie wcześniejszej metody o nazwie SemDeDup poprzez wprowadzenie mierników sprawiedliwości. W procesie trenowania modeli AI często wykorzystywane są zbiory danych zawierające społeczne uprzedzenia. Gdy te uprzedzenia są obecne w modelach AI, mogą prowadzić do niesprawiedliwych działań i decyzji.

FairDeDup zmniejsza ilość danych, wybierając jedynie najważniejsze części. Proces ten polega na zachowaniu niektórych danych i usunięciu reszty, przy jednoczesnym zachowaniu reprezentatywności pozostałego zbioru względem oryginału. Badacze decydują, które dane warto zachować, w oparciu o ich zawartość, dbając o to, by kluczowe informacje pozostały nienaruszone.

Oto szczegóły dotyczące działania FairDeDup:

  • Usuwane są nadmiarowe dane
  • Uwzględniane są różnorodne, określone przez człowieka wymiary
  • Rozpatrywane są uprzedzenia dotyczące zawodu, rasy, płci, wieku, geograficzne i kulturowe

Badaniami kierował Eric Slyman, doktorant z College of Engineering na OSU. Współpracował z Stefanem Lee z OSU oraz Scottem Cohenem i Kushalem Kafle z Adobe.

Zbiory danych z internetu często zawierają uprzedzenia odzwierciedlające społeczne stereotypy. Takie uprzedzenia mogą pojawiać się w wynikach AI, na przykład wyświetlając jedynie zdjęcia białych mężczyzn podczas wyszukiwania CEO lub lekarzy. Zespół pod kierownictwem Slymana badał, jak usunięcie zduplikowanych danych wpływa na te uprzedzenia. Odkryli, że użycie FairDeDup może zmniejszyć negatywne rezultaty.

FairDeDup dąży do obniżenia kosztów obliczeniowych i uczynienia systemów AI bardziej sprawiedliwymi. Slyman wyjaśnia, że ta metoda nie zmusza AI do trzymania się ściśle określonej koncepcji sprawiedliwości. Zamiast tego, umożliwia AI dostosowanie się do różnych sytuacji i użytkowników. Dzięki temu ludzie mogą sami decydować, co jest dla nich „sprawiedliwe”, bez polegania na dużych, zabarwionych tendencyjnością, internetowych zbiorach danych.

Naukowcy zaprezentowali algorytm FairDeDup na konferencji IEEE/CVF dotyczącej Widzenia Komputerowego i Rozpoznawania Wzorców w Seattle. Podkreślili, że ta nowa metoda jest tanio dostępna, precyzyjna i sprawiedliwa.

Slyman stwierdził, że ich metoda pozwala sztucznej inteligencji uczyć się w sposób oszczędny, dokładny i sprawiedliwy. Zespół odkrył, że poprzez usunięcie stronniczości z danych systemy AI mogą być bardziej sprawiedliwe.

Ta metoda pomaga sztucznej inteligencji podejmować bardziej sprawiedliwe decyzje, uwzględniając różnorodne ludzkie sytuacje i różnice. Nie narzuca jednej wizji sprawiedliwości, lecz pozwala różnym zastosowaniom AI samodzielnie określać, co dla nich oznacza sprawiedliwość.

To osiągnięcie stanowi ważny krok w kierunku redukcji uprzedzeń w systemach AI. Naukowcy sądzą, że FairDeDup przyczyni się do zwiększenia sprawiedliwości i zmniejszenia stronniczości sztucznej inteligencji wobec marginalizowanych grup. Współpraca pomiędzy OSU a Adobe ma na celu poprawę sprawiedliwości i efektywności AI.

Badanie jest publikowane tutaj:

NaN

i jego oficjalne cytowanie - w tym autorzy i czasopismo - to

NaN
Sztuczna Inteligencja: Najnowsze wiadomości

Udostępnij ten artykuł

Komentarze (0)

Opublikuj komentarz