Nowe badania: AI o cechach ludzkich częściej obwiniane za błędy moralne

Czas czytania: 2 minut
Przez Pedro Martinez
- w
Robot o cechach ludzkich stojący naprzeciw wadze sprawiedliwości.

WarsawNajnowsze badania Minjoo Joo z Uniwersytetu Sookmyung sugerują, że systemy sztucznej inteligencji, które wydają się bardziej ludzkie, częściej są obarczane winą za pomyłki. Publikacja w PLOS ONE podkreśla problem, że im bardziej inteligentne i podobne do ludzi stają się AI, tym bardziej ludzie wierzą, że rozumieją one i podejmują lepsze decyzje. W rezultacie, AI ponoszą większą odpowiedzialność za błędy i kwestie etyczne.

AI jest oceniane przez ludzi w różny sposób w zależności od tego, jak bardzo przypomina człowieka. Gdy sztuczna inteligencja wydaje się bardziej ludzka, częściej bywa obwiniana za popełniane błędy. To wpływa na postrzeganie AI i może zmieniać przypisywanie odpowiedzialności z ludzi, takich jak programiści czy firmy, na same systemy AI. Badanie pokazało, że w sytuacjach, gdy AI popełniała błędy rasistowskie podczas oznaczania zdjęć, bardziej "ludzkie" systemy były obwiniane częściej niż te prostsze.

  • Postrzeganie umysłu i zdolności sztucznej inteligencji
  • Charakter naruszenia moralnego
  • Stopień zaangażowania ludzkich interesariuszy
  • Te odkrycia podkreślają wagę zrozumienia postrzegania AI przez ludzi. Zwracają one również uwagę na etyczne i praktyczne problemy. Gdy zaczynamy traktować AI jak ludzi, ryzykujemy przeniesienie winy na te systemy, zamiast pociągać do odpowiedzialności osoby i organizacje, które je tworzą. Kwestia ta wpływa na dziedziny takie jak prawo, technologia i etyka, kwestionując obecne zasady zarządzania AI.

    W miarę jak sztuczna inteligencja staje się kluczowa w takich dziedzinach jak opieka zdrowotna, transport i system sprawiedliwości, istotne jest ustalenie, kto ponosi odpowiedzialność, gdy dojdzie do błędu. Kluczowe pytanie brzmi: Czy można obciążać AI winą za pomyłki, czy są one jedynie narzędziami stworzonymi przez ludzi? Bez jasno określonych zasad ludzie mogą stracić zaufanie do AI, co utrudni akceptację i wdrożenie tych technologii w codziennym życiu.

    Programiści i decydenci powinni stworzyć solidne systemy, które zapewnią uczciwe i transparentne wykorzystanie AI. W przypadku błędu systemu AI, odpowiedzialność powinna być jasno wyznaczona i nie przenoszona na innych. To zwiększy zaufanie do AI i zachęci do jego odpowiedzialnego stosowania w różnych branżach.

    Badanie jest publikowane tutaj:

    http://dx.doi.org/10.1371/journal.pone.0314559

    i jego oficjalne cytowanie - w tym autorzy i czasopismo - to

    Minjoo Joo. It’s the AI’s fault, not mine: Mind perception increases blame attribution to AI. PLOS ONE, 2024; 19 (12): e0314559 DOI: 10.1371/journal.pone.0314559
    Sztuczna Inteligencja: Najnowsze wiadomości

    Udostępnij ten artykuł

    Komentarze (0)

    Opublikuj komentarz