Detectores de mentiras con IA pueden aumentar acusaciones imprudentes, revela estudio

Por Juanita Lopez
- en
Detector de mentiras de IA con señal de precaución mostrada.

MadridUn estudio reciente en la revista iScience advierte sobre los impactos sociales de los detectores de mentiras basados en IA. Publicado el 27 de junio, el estudio revela que los sistemas de inteligencia artificial podrían modificar la manera en que las personas acusan a otros de mentir. La investigación indica que la IA podría incrementar la probabilidad de que alguien sea acusado de deshonestidad, ya que resulta más sencillo culpar a la IA en lugar de asumir la responsabilidad personal.

La mayoría de las personas creen que los demás dicen la verdad, lo que explica por qué no son buenos para detectar mentiras. Investigaciones indican que la habilidad humana para identificar falsedades es tan precisa como adivinar al azar. La nueva investigación quería saber si la presencia de la IA altera estos hábitos y comportamientos.

Esto es lo que se hizo en la investigación:

  • 986 participantes escribieron una afirmación verdadera y una falsa sobre sus planes del fin de semana.
  • Se entrenó un modelo de IA con estos datos, obteniendo un 66% de precisión en la identificación de afirmaciones verdaderas y falsas.
  • 2,000 participantes adicionales leyeron estas afirmaciones para juzgar si eran verdaderas o falsas.
  • Los participantes fueron divididos en cuatro grupos: control, forzado, bloqueado y libre elección.

En el grupo de control, los participantes evaluaron las afirmaciones sin ayuda de la IA. Acertaron en distinguir entre verdaderas y falsas el 46% de las veces. Solo el 19% de este grupo señaló que las afirmaciones eran falsas, a pesar de saber que la mitad de ellas lo eran. Esto muestra que eran muy reacios a llamar mentiroso a alguien.

En el grupo forzado, los participantes veían siempre la predicción de una IA antes de tomar su propia decisión. En este grupo, más de un tercio de los participantes señaló que algunas afirmaciones eran falsas. Cuando la IA afirmaba que una declaración era verdadera, solo el 13% de los participantes no estaba de acuerdo. Sin embargo, cuando la IA indicaba que una afirmación era falsa, más del 40% de los participantes coincidía con la IA.

En los grupos donde las personas podían optar por utilizar las predicciones de la IA, solo un tercio solicitó la ayuda de la IA. De aquellos que sí usaron la IA, el 84% siguió sus recomendaciones y etiquetaron la afirmación como falsa cuando la IA lo hizo. Esto demuestra una gran confianza en la IA una vez que se decide utilizarla.

Muchos se negaron a usar la IA a pesar de que se les aseguraba que podía detectar mentiras mejor que los humanos. Este hecho sorprendió al equipo de investigación. Creen que podría deberse a la excesiva confianza de las personas en su propia capacidad para identificar engaños.

Investigadores aseguran que la inteligencia artificial comete errores y puede acentuar prejuicios. Nils Köbis, científico del comportamiento en la Universidad de Duisburgo-Essen, advierte no depender demasiado de la IA para decisiones importantes, como las relacionadas con el asilo en fronteras. Los responsables políticos deben ser cautelosos al usar estas tecnologías en áreas sensibles.

Köbis señala que hay mucho entusiasmo en torno a la IA. Muchos piensan que estos algoritmos son muy precisos y justos. Sin embargo, existe un gran riesgo en depender demasiado de ellos, ya que la IA tiene fallos. Este estudio indica que la IA puede modificar nuestra conducta, y es crucial reflexionar cuidadosamente sobre estos cambios.

La sociedad humana desalienta fuertemente acusar a otros de mentir. La IA podría facilitar estas acusaciones, lo que podría resultar en señalamientos más imprudentes debido a la confianza en el juicio de la inteligencia artificial. Los legisladores deben considerar estos efectos al evaluar el uso de la IA para detectar mentiras.

El estudio se publica aquí:

http://dx.doi.org/10.1016/j.isci.2024.110201

y su cita oficial - incluidos autores y revista - es

Alicia von Schenk, Victor Klockmann, Jean-François Bonnefon, Iyad Rahwan, Nils Köbis. Lie detection algorithms disrupt the social dynamics of accusation behavior. iScience, 2024; 110201 DOI: 10.1016/j.isci.2024.110201
Inteligencia Artificial: Últimas noticias

Compartir este artículo

Comentarios (0)

Publicar un comentario