Nowe badania: AI o cechach ludzkich częściej obwiniane za błędy moralne
WarsawNajnowsze badania Minjoo Joo z Uniwersytetu Sookmyung sugerują, że systemy sztucznej inteligencji, które wydają się bardziej ludzkie, częściej są obarczane winą za pomyłki. Publikacja w PLOS ONE podkreśla problem, że im bardziej inteligentne i podobne do ludzi stają się AI, tym bardziej ludzie wierzą, że rozumieją one i podejmują lepsze decyzje. W rezultacie, AI ponoszą większą odpowiedzialność za błędy i kwestie etyczne.
AI jest oceniane przez ludzi w różny sposób w zależności od tego, jak bardzo przypomina człowieka. Gdy sztuczna inteligencja wydaje się bardziej ludzka, częściej bywa obwiniana za popełniane błędy. To wpływa na postrzeganie AI i może zmieniać przypisywanie odpowiedzialności z ludzi, takich jak programiści czy firmy, na same systemy AI. Badanie pokazało, że w sytuacjach, gdy AI popełniała błędy rasistowskie podczas oznaczania zdjęć, bardziej "ludzkie" systemy były obwiniane częściej niż te prostsze.
Te odkrycia podkreślają wagę zrozumienia postrzegania AI przez ludzi. Zwracają one również uwagę na etyczne i praktyczne problemy. Gdy zaczynamy traktować AI jak ludzi, ryzykujemy przeniesienie winy na te systemy, zamiast pociągać do odpowiedzialności osoby i organizacje, które je tworzą. Kwestia ta wpływa na dziedziny takie jak prawo, technologia i etyka, kwestionując obecne zasady zarządzania AI.
W miarę jak sztuczna inteligencja staje się kluczowa w takich dziedzinach jak opieka zdrowotna, transport i system sprawiedliwości, istotne jest ustalenie, kto ponosi odpowiedzialność, gdy dojdzie do błędu. Kluczowe pytanie brzmi: Czy można obciążać AI winą za pomyłki, czy są one jedynie narzędziami stworzonymi przez ludzi? Bez jasno określonych zasad ludzie mogą stracić zaufanie do AI, co utrudni akceptację i wdrożenie tych technologii w codziennym życiu.
Programiści i decydenci powinni stworzyć solidne systemy, które zapewnią uczciwe i transparentne wykorzystanie AI. W przypadku błędu systemu AI, odpowiedzialność powinna być jasno wyznaczona i nie przenoszona na innych. To zwiększy zaufanie do AI i zachęci do jego odpowiedzialnego stosowania w różnych branżach.
Badanie jest publikowane tutaj:
http://dx.doi.org/10.1371/journal.pone.0314559i jego oficjalne cytowanie - w tym autorzy i czasopismo - to
Minjoo Joo. It’s the AI’s fault, not mine: Mind perception increases blame attribution to AI. PLOS ONE, 2024; 19 (12): e0314559 DOI: 10.1371/journal.pone.031455921 grudnia 2024 · 23:29
Zmarł były inżynier OpenAI i demaskator.
1 grudnia 2024 · 20:15
Czy rewolucyjny zastrzyk pokona globalne bariery w walce z AIDS?
30 listopada 2024 · 03:44
Kanadyjskie media pozywają OpenAI – walka o prawa autorskie trwa
Udostępnij ten artykuł