Les détecteurs de mensonges IA pourraient inciter des accusations imprudentes, selon une étude

Par Madelaine Dupont
- dans
Détecteur de mensonges AI avec panneau de mise en garde affiché.

ParisUne étude récente dans la revue iScience alerte sur les impacts sociaux des détecteurs de mensonges basés sur l'IA. Publiée le 27 juin, elle révèle que ces systèmes pourraient modifier la façon dont les gens accusent les autres de mentir. La recherche indique que l'IA pourrait inciter plus de personnes à accuser quelqu'un de malhonnêteté, car il est plus facile de rejeter la faute sur l'IA plutôt que d'assumer une responsabilité personnelle.

La majorité des gens croient ce que les autres disent, ce qui explique pourquoi ils détectent mal les mensonges. Des études révèlent que la capacité des personnes à repérer les mensonges est comparable à celle du hasard. La nouvelle recherche s'intéresse à l'impact de la présence de l'IA sur ces habitudes et comportements.

Voici les étapes de la recherche :

  • 986 participants ont rédigé une déclaration vraie et une déclaration fausse concernant leurs plans de week-end.
  • Un modèle d'IA a été entraîné avec ces données et a atteint une précision de 66% dans l'identification des déclarations vraies et fausses.
  • 2 000 autres participants ont lu ces déclarations pour juger si elles étaient vraies ou fausses.
  • Les participants ont été répartis en quatre groupes : référence, forcé, bloqué et choix.

Dans le groupe témoin, les participants évaluèrent les affirmations sans aide de l'IA. Ils ont correctement identifié les déclarations vraies et fausses 46 % du temps. Seulement 19 % de ce groupe ont qualifié les déclarations de fausses, bien qu'ils savaient que la moitié d'entre elles l'étaient. Cela démontre une grande réticence à accuser quelqu'un de mentir.

Dans le groupe contraint, les participants devaient toujours voir la prédiction de l'IA avant de prendre leur propre décision. Dans ce groupe, plus d'un tiers des participants ont affirmé que certaines déclarations étaient fausses. Lorsque l'IA affirmait qu'une déclaration était vraie, seulement 13% des participants n'étaient pas d'accord. En revanche, lorsque l'IA disait qu'une déclaration était fausse, plus de 40% des participants étaient d'accord avec elle.

Dans les groupes où les participants pouvaient choisir d'utiliser les prévisions de l'IA, seulement un tiers d'entre eux a sollicité l'aide de l'IA. Parmi ceux qui ont utilisé l'IA, 84% ont suivi ses conseils et ont qualifié la déclaration de fausse lorsque l'IA l'a fait. Cela démontre une forte confiance en l'IA une fois qu'elle est adoptée.

Bien que l'on ait informé les gens que l'IA pouvait détecter les mensonges mieux que les humains, beaucoup refusaient de l'utiliser. L'équipe de recherche a été étonnée par cette réaction et pense que cela pourrait s'expliquer par une confiance excessive des gens en leur propre capacité à déceler les mensonges.

Les chercheurs soulignent que l'IA commet souvent des erreurs et peut accentuer les préjugés. Nils Köbis, expert en sciences du comportement à l'université de Duisbourg-Essen, recommande de ne pas trop s'y fier pour des décisions cruciales, notamment celles concernant les demandes d'asile aux frontières. Les décideurs doivent faire preuve de prudence lorsqu'ils utilisent ces technologies dans des domaines sensibles.

Köbis souligne l'effervescence autour de l'IA. Beaucoup estiment que ces algorithmes sont très précis et équitables. Cependant, il y a un risque important de trop dépendre d'eux car l'IA présente des défauts. Cette étude montre que l'IA peut influencer nos comportements, et il faut réfléchir attentivement à ces changements.

La société humaine déconseille fermement d'accuser les autres de mensonge. L'IA pourrait faciliter ces accusations, ce qui pourrait entraîner davantage d'accusations imprudentes car les gens pourraient se fier au jugement de l'IA. Les décideurs doivent prendre en compte ces effets en envisageant l'utilisation de l'IA pour la détection des mensonges.

L'étude est publiée ici:

http://dx.doi.org/10.1016/j.isci.2024.110201

et sa citation officielle - y compris les auteurs et la revue - est

Alicia von Schenk, Victor Klockmann, Jean-François Bonnefon, Iyad Rahwan, Nils Köbis. Lie detection algorithms disrupt the social dynamics of accusation behavior. iScience, 2024; 110201 DOI: 10.1016/j.isci.2024.110201
Intelligence Artificielle: Dernières nouvelles

Partager cet article

Commentaires (0)

Poster un commentaire