AI-leugendetectors kunnen leiden tot roekeloze beschuldigingen, zo waarschuwt een nieuwe studie

Door Jeroen Schootbergen
- in
AI-leugendetector met waarschuwingsbord weergegeven.

AmsterdamEen nieuwe studie in het tijdschrift iScience waarschuwt voor de sociale gevolgen van AI-leugendetectors. Gepubliceerd op 27 juni, stelt het onderzoek dat AI-systemen kunnen veranderen hoe mensen anderen van liegen beschuldigen. De bevindingen laten zien dat AI ervoor kan zorgen dat mensen sneller iemand van oneerlijkheid beschuldigen. Dit kan gebeuren omdat het makkelijker is om de schuld bij AI te leggen in plaats van persoonlijke verantwoordelijkheid te nemen.

De meeste mensen gaan ervan uit dat anderen de waarheid spreken, en daarom zijn ze slecht in het herkennen van leugens. Uit onderzoek blijkt dat mensen leugens slechts even goed kunnen ontdekken als wanneer ze willekeurig zouden raden. Nieuw onderzoek wil begrijpen of de aanwezigheid van AI deze gewoonten en gedragingen verandert.

Dit behelst het onderzoek:

  • 986 deelnemers schreven een ware en een valse verklaring over hun weekendplannen.
  • Een AI-model werd getraind met deze data en behaalde een nauwkeurigheid van 66% in het identificeren van ware en valse uitspraken.
  • 2.000 extra deelnemers lazen deze uitspraken om te beoordelen of ze waar of niet waar waren.
  • Deelnemers werden verdeeld in vier groepen: basislijn, gedwongen, geblokkeerd en keuze.

In de controlegroep beoordeelden de deelnemers uitspraken zonder hulp van AI. Ze slaagden er 46% van de keren in om waarheidsgetrouwe en valse uitspraken te onderscheiden. Slechts 19% van deze groep bestempelde uitspraken als onwaar, ondanks dat ze wisten dat de helft van de uitspraken onjuist was. Dit toont aan dat ze erg terughoudend waren om iemand een leugenaar te noemen.

In de verplichte groep zagen deelnemers altijd een AI-voorspelling voordat ze zelf een beslissing namen. In deze groep gaf meer dan een derde van de deelnemers aan dat sommige uitspraken onwaar waren. Wanneer de AI zei dat een uitspraak waar was, was slechts 13% van de deelnemers het niet eens. Maar wanneer de AI een uitspraak onwaar vond, was meer dan 40% van de deelnemers het eens met de AI.

In de groepen waar mensen de mogelijkheid hadden om AI-voorspellingen te gebruiken, vroeg slechts een derde om hulp van de AI. Van degenen die de AI wel raadpleegden, volgde 84% het advies van de AI en markeerde de uitspraak als onwaar wanneer de AI dat deed. Dit wijst op een sterk vertrouwen in AI zodra het wordt ingezet.

Veel mensen wilden de AI niet gebruiken, ondanks dat hen werd verteld dat deze leugens beter kon opsporen dan mensen. Dit verraste het onderzoeksteam. Ze denken dat dit komt omdat mensen te veel vertrouwen hebben in hun eigen vermogen om leugens te herkennen.

Onderzoekers stellen dat AI regelmatig fouten maakt en bestaande vooroordelen kan versterken. Nils Köbis, gedragswetenschapper aan de Universiteit van Duisburg-Essen, raadt af om te veel te vertrouwen op AI bij cruciale beslissingen, zoals die rondom asiel aan grenzen. Beleidsmakers moeten voorzichtig zijn bij het inzetten van dergelijke technologieën in gevoelige kwesties.

Köbis benadrukt dat er veel ophef is rond AI. Veel mensen denken dat deze algoritmen zeer nauwkeurig en eerlijk zijn. Maar er schuilt een groot risico in een te sterke afhankelijkheid ervan, omdat AI gebreken heeft. Deze studie toont aan dat AI ons gedrag kan beïnvloeden, en we moeten goed nadenken over deze veranderingen.

De samenleving ontmoedigt mensen sterk om anderen van liegen te beschuldigen. AI kan het eenvoudiger maken om beschuldigingen te uiten, wat tot meer onzorgvuldige aantijgingen kan leiden doordat mensen mogelijk te veel vertrouwen op het oordeel van AI. Beleidsmakers moeten deze gevolgen in overweging nemen bij het ontwikkelen van AI-gebaseerde leugendetectie.

De studie is hier gepubliceerd:

http://dx.doi.org/10.1016/j.isci.2024.110201

en de officiële citatie - inclusief auteurs en tijdschrift - is

Alicia von Schenk, Victor Klockmann, Jean-François Bonnefon, Iyad Rahwan, Nils Köbis. Lie detection algorithms disrupt the social dynamics of accusation behavior. iScience, 2024; 110201 DOI: 10.1016/j.isci.2024.110201
Artificial Intelligence: Laatste nieuws

Deel dit artikel

Reacties (0)

Plaats een reactie