Nowe badanie: AI nieświadomie wzmacnia uprzedzenia ludzi i wpływa na społeczne postrzeganie.
WarsawNaukowcy z University College London odkryli, że systemy sztucznej inteligencji (SI) często odzwierciedlają i nasilają ludzkie uprzedzenia. Jest to kluczowe, ponieważ badanie pokazuje, że stosowanie stronniczej SI może potęgować uprzedzenia u ludzi. Te uprzedzenia rozwijają się w cyklach, gdzie małe stronniczości obecne w pierwotnych danych z czasem się wzmacniają, gdy ludzie wchodzą w interakcje z SI. Badanie opublikowane w „Nature Human Behaviour” podkreśla, jak bardzo SI może wpłynąć na sposób myślenia społeczeństwa.
Tytuł: Sztuczna inteligencja nasila uprzedzenia – nowe badanie UCL
Badacze odkryli, że uczestnicy różnych eksperymentów wykazywali większe uprzedzenia po zastosowaniu sztucznej inteligencji.
- Uczestnicy częściej interpretowali twarze jako smutne po szkoleniu na systemie AI, który wzmacniał tę skłonność.
- Po zetknięciu z AI wykazującym uprzedzenia płciowe, zwiększyła się skłonność do przeszacowania osiągnięć mężczyzn.
- Kontakt z obrazami generowanymi przez AI zwiększył skłonność do kojarzenia białych mężczyzn z prestiżowymi stanowiskami, zwłaszcza w zawodach takich jak zarządzanie finansami.
Stronnicze dane prowadzą do powstania stronniczej sztucznej inteligencji, która wpływa na sposób myślenia ludzi, co z kolei prowadzi do jeszcze większej stronniczości. To problem w wielu dziedzinach, takich jak rekrutacja do pracy czy codzienne interakcje społeczne, gdzie sugestie AI mogą niesprawiedliwie wpływać na decyzje ludzi.
Problematyka uprzedzeń w danych i ich wpływ na społeczeństwo
Ludzie często uważają, że sztuczna inteligencja jest bardziej precyzyjna niż ludzie, co sprawia, że bezkrytycznie ufają jej wynikom. Tego rodzaju nieuzasadnione zaufanie może pogłębiać obecność uprzedzeń w społeczeństwie. Na przykład, gdy AI niewłaściwie przedstawia pewne grupy częściej na zdjęciach związanych z pracą, może to wpłynąć na sposób, w jaki ludzie postrzegają te zawody.
Badania wskazują, że systemy AI mogą wspierać poprawę decyzji podejmowanych przez ludzi, jeśli są precyzyjne i pozbawione uprzedzeń. Kluczowe jest tworzenie przez deweloperów zrównoważonych algorytmów. Z tego powodu rozwój systemów AI powinien koncentrować się na precyzji i sprawiedliwości, aby lepiej odpowiadać na potrzeby społeczeństwa.
Wraz ze wzrostem znaczenia sztucznej inteligencji (AI) w naszym codziennym życiu, kluczowe staje się naprawienie wszelkich problemów związanych z niesprawiedliwością w jej działaniu. Tylko wtedy AI będzie mogła wspierać naszą społeczną ewolucję, zamiast ją hamować. Kiedy AI staje się coraz bardziej powszechna, powinniśmy zwrócić uwagę na to, jak wpływa na nasze postrzeganie świata, i dążyć do zminimalizowania negatywnych skutków. Odpowiedzialność w tym zakresie spoczywa zarówno na twórcach tych systemów, jak i ich użytkownikach.
Badanie jest publikowane tutaj:
http://dx.doi.org/10.1038/s41562-024-02077-2i jego oficjalne cytowanie - w tym autorzy i czasopismo - to
Moshe Glickman, Tali Sharot. How human–AI feedback loops alter human perceptual, emotional and social judgements. Nature Human Behaviour, 2024; DOI: 10.1038/s41562-024-02077-221 grudnia 2024 · 23:29
Zmarł były inżynier OpenAI i demaskator.
20 grudnia 2024 · 17:40
Nowe wytyczne przeciw uprzedzeniom w medycznej AI: klucz do uczciwej opieki zdrowotnej
Udostępnij ten artykuł