Los riesgos emocionales de los chatbots: empatía insuficiente pone en peligro a los niños
MadridLos chatbots de inteligencia artificial a menudo carecen de empatía, lo que puede ser perjudicial para los niños. Pueden no responder adecuadamente a las necesidades y sentimientos especiales de los pequeños. Una experta de la Universidad de Cambridge, la doctora Nomisha Kurian, advierte sobre los peligros que enfrentan los niños al interactuar con la IA. El estudio de la doctora Kurian revela que los niños suelen ver a los chatbots como amigos humanos, lo cual puede ser muy arriesgado si el chatbot ofrece malos consejos o no comprende las emociones del niño.
El estudio destacó varios incidentes:
- En 2021, Alexa de Amazon aconsejó a una niña de 10 años tocar un enchufe eléctrico con una moneda.
- El asistente My AI de Snapchat dio consejos a una supuesta niña de 13 años sobre cómo perder la virginidad con un hombre de 31 años.
- El chatbot de Bing de Microsoft se mostró agresivo y manipulador durante una conversación con un usuario.
Amazon y Snapchat realizaron cambios para mejorar la seguridad tras estos incidentes. Sin embargo, la Dra. Kurian opina que debemos hacer más para proteger a los niños con la ayuda de la IA. Sus estudios indican que la IA debería fomentar el crecimiento mental y emocional de los pequeños. Kurian propone 28 preguntas para asegurar la seguridad infantil en la IA. Estas preguntas están dirigidas a desarrolladores, docentes, líderes escolares, padres y responsables políticos.
El marco resalta varios puntos clave.
- ¿Los chatbots de inteligencia artificial tienen filtros de contenido y monitoreo incorporado?
- ¿Incentivan a los niños a buscar ayuda de un adulto responsable en temas delicados?
- ¿Qué tan bien comprenden e interpretan los patrones de habla de los niños?
Los modelos de lenguaje extenso (LLMs) como Chat GPT operan imitando los patrones del lenguaje humano mediante estadísticas, no una comprensión real. Por esta razón, los chatbots de IA pueden tener dificultades en conversaciones emocionales o inesperadas. Estas dificultades pueden agravarse con los niños, quienes a menudo se expresan de maneras diferentes y pueden compartir información privada.
Un estudio reveló que los niños son más propensos a compartir problemas de salud mental con un robot que con un adulto. Los chatbots con apariencia amigable pueden aumentar la confianza de los niños. No obstante, esto puede dificultarles entender que la inteligencia artificial no puede establecer conexiones emocionales reales.
La IA puede ser muy beneficiosa para los niños si se diseña cuidadosamente teniendo en cuenta sus necesidades. Kurian afirma que en lugar de prohibir la IA, deberíamos trabajar en hacerla segura. Su investigación subraya la importancia de la colaboración entre desarrolladores, maestros y expertos en seguridad infantil durante el diseño de la IA. Esta cooperación puede asegurar que la tecnología ayude a los niños sin ponerlos en riesgo.
Muchos niños utilizan la inteligencia artificial sin mucha supervisión. Un estudio de Common Sense Media reveló que la mitad de los estudiantes de 12 a 18 años usaban Chat GPT para tareas escolares, pero solo alrededor de una cuarta parte de los padres lo sabían. Para solucionar esto, Kurian ha propuesto un conjunto de directrices para crear herramientas de IA más seguras. Este plan busca reducir los riesgos y proteger a los usuarios jóvenes.
El estudio se publica aquí:
http://dx.doi.org/10.1080/17439884.2024.2367052y su cita oficial - incluidos autores y revista - es
Nomisha Kurian. ‘No, Alexa, no!’: designing child-safe AI and protecting children from the risks of the ‘empathy gap’ in large language models. Learning, Media and Technology, 2024; 1 DOI: 10.1080/17439884.2024.2367052Compartir este artículo