Sztuczna inteligencja w wykrywaczach kłamstw może prowadzić do fałszywych oskarżeń, sugeruje badanie.

Czas czytania: 3 minut
Przez Juanita Lopez
- w
Wykrywacz kłamstw oparty na sztucznej inteligencji z wyraźnym znakiem ostrzegawczym.

WarsawNowe badanie opublikowane w czasopiśmie iScience ostrzega o społecznych konsekwencjach wykorzystania wykrywaczy kłamstw opartych na AI. Badanie opublikowane 27 czerwca pokazuje, że systemy AI mogą wpływać na sposób, w jaki ludzie oskarżają innych o kłamstwo. Wyniki sugerują, że AI może zwiększać skłonność do oskarżania kogoś o nieuczciwość, ponieważ łatwiej jest zrzucić winę na sztuczną inteligencję zamiast brać na siebie osobistą odpowiedzialność.

Większość ludzi wierzy, że inni mówią prawdę, dlatego mają trudności z wykrywaniem kłamstw. Badania wskazują, że umiejętność wykrywania kłamstw jest u ludzi na poziomie losowego zgadywania. Nowe badania próbowały dowiedzieć się, czy obecność sztucznej inteligencji wpływa na te nawyki i zachowania.

Oto czego dotyczyło badanie:

986 uczestników napisało jedno prawdziwe i jedno fałszywe stwierdzenie na temat swoich planów na weekend. Model AI został przeszkolony na podstawie tych danych i osiągnął 66% skuteczności w rozpoznawaniu prawdziwych i fałszywych stwierdzeń. 2000 dodatkowych uczestników przeczytało te wypowiedzi, aby ocenić, czy są one prawdziwe czy fałszywe. Uczestnicy zostali podzieleni na cztery grupy: bazowa, wymuszona, zablokowana oraz wybór.

W grupie kontrolnej uczestnicy oceniali stwierdzenia bez pomocy AI. Prawidłowo rozpoznali prawdziwe i fałszywe twierdzenia w 46% przypadków. Tylko 19% z tej grupy określało stwierdzenia jako fałszywe, mimo że zdawali sobie sprawę, że połowa z nich była nieprawdziwa. Wskazuje to na ich duże opory przed oskarżeniem kogoś o kłamstwo.

W grupie zmuszonej uczestnicy zawsze widzieli przewidywania AI przed podjęciem własnej decyzji. W tej grupie ponad jedna trzecia uczestników stwierdziła, że niektóre stwierdzenia były fałszywe. Kiedy AI uważało stwierdzenie za prawdziwe, tylko 13% uczestników się z tym nie zgodziło. Natomiast gdy AI twierdziło, że dane stwierdzenie jest fałszywe, ponad 40% uczestników zgadzało się z AI.

W grupach, gdzie uczestnicy mogli zdecydować się na skorzystanie z prognoz AI, tylko jedna trzecia poprosiła o pomoc sztucznej inteligencji. Z tych, którzy faktycznie skorzystali z AI, 84% zaufało jej wskazówkom i oznaczyło stwierdzenie jako fałszywe, gdy AI tak sugerowało. To pokazuje, jak silnie ufają AI ci, którzy się jej używają.

Wiele osób nie chciało korzystać ze sztucznej inteligencji, mimo że poinformowano je, iż jest ona w stanie lepiej wykrywać kłamstwa niż ludzie. Zespół badawczy był tym zaskoczony. Uważają, że może to wynikać z faktu, że ludzie są zbyt pewni swoich własnych umiejętności w rozpoznawaniu kłamstw.

Badacze twierdzą, że AI często popełnia błędy i może zwiększać uprzedzenia. Nils Köbis, naukowiec behawioralny z Uniwersytetu Duisburg-Essen, odradza nadmierne poleganie na AI przy podejmowaniu ważnych decyzji, zwłaszcza tych dotyczących azylu na granicach. Decydenci powinni zachować ostrożność przy stosowaniu takich technologii w wrażliwych obszarach.

Köbis zwraca uwagę na duże zainteresowanie wokół sztucznej inteligencji. Wiele osób uważa, że te algorytmy są bardzo precyzyjne i sprawiedliwe. Jednakże istnieje duże ryzyko nadmiernego polegania na nich, ponieważ AI ma swoje wady. Badania pokazują, że AI może zmieniać nasze zachowania, dlatego musimy uważnie analizować te zmiany.

Ludzkie społeczeństwo generalnie zniechęca do oskarżania innych o kłamstwo. Sztuczna inteligencja mogłaby ułatwić takie oskarżenia, co z kolei mogłoby prowadzić do bardziej nieprzemyślanych zarzutów, ponieważ ludzie mogliby polegać na ocenie AI. Decydenci muszą wziąć pod uwagę te możliwe konsekwencje, analizując wykorzystanie AI do wykrywania kłamstw.

Badanie jest publikowane tutaj:

http://dx.doi.org/10.1016/j.isci.2024.110201

i jego oficjalne cytowanie - w tym autorzy i czasopismo - to

Alicia von Schenk, Victor Klockmann, Jean-François Bonnefon, Iyad Rahwan, Nils Köbis. Lie detection algorithms disrupt the social dynamics of accusation behavior. iScience, 2024; 110201 DOI: 10.1016/j.isci.2024.110201
Nauka: Najnowsze wiadomości
Czytaj dalej:

Udostępnij ten artykuł

Komentarze (0)

Opublikuj komentarz