AI-Lügendetektoren könnten unvorsichtige Anschuldigungen begünstigen, warnt neue Studie

Durch Hans Meier
- in
KI-Lügendetektor mit angezeigtem Warnschild.

BerlinEine neue Studie im Journal iScience warnt vor den sozialen Auswirkungen von KI-Lügendetektoren. Veröffentlicht am 27. Juni, zeigt sie, dass KI-Systeme das Verhalten bei Lügenvorwürfen verändern könnten. Die Forschung legt nahe, dass KI dazu führen kann, dass Menschen häufiger andere der Unehrlichkeit bezichtigen. Dies könnte daran liegen, dass es einfacher ist, die Schuld auf KI zu schieben, anstatt selbst Verantwortung zu übernehmen.

Die meisten Menschen gehen davon aus, dass andere die Wahrheit sagen, weshalb es ihnen schwerfällt, Lügen zu erkennen. Studien zeigen, dass Menschen Lügen nicht besser erkennen können als durch reines Raten. Neue Untersuchungen wollten herausfinden, ob die Anwesenheit von KI diese Gewohnheiten und Verhaltensweisen verändert.

So lief die Untersuchung ab:

  • 986 Teilnehmer verfassten jeweils eine wahre und eine falsche Aussage über ihre Wochenendpläne.
  • Ein AI-Modell wurde mit diesen Daten trainiert und erreichte eine Genauigkeit von 66 % bei der Identifizierung wahrer und falscher Aussagen.
  • Weitere 2.000 Teilnehmer lasen diese Aussagen, um zu beurteilen, ob sie wahr oder falsch waren.
  • Die Teilnehmer wurden in vier Gruppen aufgeteilt: Basis, Zwang, Blockiert und Wahl.

In der Kontrollgruppe beurteilten die Teilnehmer Aussagen ohne Unterstützung durch KI. Sie erkannten wahre und falsche Aussagen nur zu 46% korrekt. Nur 19% dieser Gruppe bezeichneten Aussagen als falsch, obwohl sie wussten, dass die Hälfte der Aussagen falsch war. Dies zeigt, dass sie sehr zögerlich waren, jemanden als Lügner zu bezeichnen.

In der Gruppe, die zur Konsultation gezwungen wurde, bekamen die Teilnehmer stets eine KI-Vorhersage zu sehen, bevor sie ihre eigene Entscheidung trafen. Mehr als ein Drittel dieser Gruppe hielt einige Aussagen für falsch. Sagte die KI, eine Aussage sei richtig, widersprachen nur 13 % der Teilnehmer. Behauptete die KI jedoch, eine Aussage sei falsch, stimmten über 40 % der Teilnehmer der KI zu.

In den Gruppen, in denen die Teilnehmer die Möglichkeit hatten, die Vorhersagen der KI zu nutzen, fragte nur ein Drittel nach der Hilfe der KI. Von denjenigen, die die KI nutzten, folgten 84% dem Ratschlag der KI und beurteilten die Aussage als falsch, wenn die KI dies tat. Dies zeigt ein großes Vertrauen in die KI, sobald sie einmal genutzt wird.

Viele Menschen wollten das KI-System nicht nutzen, obwohl ihnen gesagt wurde, dass es Lügen besser erkennen kann als Menschen. Das Forschungsteam war darüber überrascht und vermutet, dass dies daran liegt, dass die Menschen zu sehr von ihrer eigenen Fähigkeit, Lügen zu erkennen, überzeugt sind.

KI führt oft zu Fehlern und kann Vorurteile verstärken, wie Forscher festgestellt haben. Nils Köbis, Verhaltenswissenschaftler an der Universität Duisburg-Essen, warnt davor, sich zu sehr auf KI bei wichtigen Entscheidungen zu verlassen, insbesondere bei solchen, die Asyl an den Grenzen betreffen. Politiker sollten Vorsicht walten lassen, wenn sie diese Technologien in sensiblen Bereichen einsetzen.

Köbis betont, dass derzeit viel über KI gesprochen wird. Viele Menschen sind der Meinung, dass diese Algorithmen sehr präzise und fair sind. Es besteht jedoch ein hohes Risiko, sich zu sehr auf sie zu verlassen, da Künstliche Intelligenz ihre eigenen Mängel hat. Diese Studie zeigt, dass KI unser Verhalten verändern kann, und wir müssen sorgfältig über diese Veränderungen nachdenken.

Die menschliche Gesellschaft sieht Anschuldigungen der Lüge äußerst ungern. Künstliche Intelligenz könnte es leichter machen, Menschen zu beschuldigen, was zu unüberlegten Vorwürfen führen könnte, da man sich zunehmend auf die Urteile der KI verlässt. Entscheidungsträger müssen diese Auswirkungen bedenken, wenn sie den Einsatz von KI zur Lügenerkennung in Betracht ziehen.

Die Studie wird hier veröffentlicht:

http://dx.doi.org/10.1016/j.isci.2024.110201

und seine offizielle Zitation - einschließlich Autoren und Zeitschrift - lautet

Alicia von Schenk, Victor Klockmann, Jean-François Bonnefon, Iyad Rahwan, Nils Köbis. Lie detection algorithms disrupt the social dynamics of accusation behavior. iScience, 2024; 110201 DOI: 10.1016/j.isci.2024.110201
Künstliche Intelligenz: Neueste Nachrichten

Diesen Artikel teilen

Kommentare (0)

Kommentar veröffentlichen