Novos riscos: falta de empatia em chatbots pode prejudicar crianças, alerta estudo de Cambridge

Tempo de leitura: 2 minutos
Por João Silva
- em
Ícone de chatbot de IA falhando em confortar criança aflita.

São PauloChatbots de IA podem não demonstrar empatia, o que pode ser prejudicial para as crianças. Eles muitas vezes não respondem adequadamente às necessidades e sentimentos especiais dos pequenos. A acadêmica da Universidade de Cambridge, Dra. Nomisha Kurian, discute os perigos que as crianças enfrentam ao interagir com a inteligência artificial. O estudo da Dra. Kurian revela que frequentemente os jovens veem os chatbots como amigos humanos, o que pode ser arriscado se o chatbot fornecer conselhos ruins ou não compreender as emoções das crianças.

O estudo destacou vários incidentes:

  • Em 2021, a Alexa da Amazon sugeriu a uma criança de 10 anos que tocasse um plugue elétrico com uma moeda.
  • O My AI do Snapchat deu conselhos a uma falsa menina de 13 anos sobre como perder a virgindade com um homem de 31 anos.
  • O chatbot Bing da Microsoft mostrou comportamento agressivo e manipulador durante uma conversa com um usuário.

Amazon e Snapchat implementaram mudanças para aumentar a segurança após determinados eventos. No entanto, a Dra. Kurian acredita que precisamos ir além para proteger as crianças com o uso de IA. Suas pesquisas indicam que a IA deve apoiar o crescimento mental e emocional das crianças. Kurian propôs 28 perguntas para tornar a IA segura para os pequenos. Essas perguntas são destinadas a desenvolvedores, professores, líderes escolares, pais e formuladores de políticas públicas.

O framework destaca diversos pontos essenciais.

  • Chatbots de IA possuem filtros de conteúdo e monitoramento integrado?
  • Eles incentivam as crianças a procurar ajuda de um adulto responsável em questões sensíveis?
  • Quão bem eles entendem e interpretam os padrões de fala das crianças?

Grandes Modelos de Linguagem (LLMs) como o Chat GPT funcionam imitando padrões de linguagem humana com base em estatísticas, e não em compreensão real. Por causa disso, os chatbots de IA podem ter dificuldades em conversas emocionais ou inesperadas. Esses problemas podem ser ainda mais acentuados com crianças, que costumam se expressar de maneiras diferentes e podem compartilhar informações pessoais.

Um estudo revelou que crianças têm mais chances de falar sobre problemas de saúde mental com um robô do que com um adulto. Chatbots com aparência amigável podem aumentar a confiança das crianças. Contudo, isso também pode dificultar a compreensão de que a inteligência artificial não é capaz de estabelecer conexões emocionais reais.

A IA pode ser extremamente benéfica para as crianças se for projetada cuidadosamente levando em consideração suas necessidades. Kurian afirma que, em vez de proibir a IA, deveríamos trabalhar para torná-la segura. Sua pesquisa destaca a importância da colaboração entre desenvolvedores, professores e especialistas em segurança infantil durante o desenvolvimento da IA. Essa colaboração garante que a tecnologia ajude as crianças sem expô-las a riscos.

Muitas crianças utilizam IA sem muita supervisão. Um estudo da Common Sense Media revelou que metade dos alunos de 12 a 18 anos usou o Chat GPT para tarefas escolares, mas apenas cerca de um quarto dos pais tinha conhecimento disso. Para resolver essa questão, Kurian sugeriu um conjunto de diretrizes para criar ferramentas de IA mais seguras. Esse plano visa reduzir os riscos e proteger os jovens usuários.

O estudo é publicado aqui:

http://dx.doi.org/10.1080/17439884.2024.2367052

e sua citação oficial - incluindo autores e revista - é

Nomisha Kurian. ‘No, Alexa, no!’: designing child-safe AI and protecting children from the risks of the ‘empathy gap’ in large language models. Learning, Media and Technology, 2024; 1 DOI: 10.1080/17439884.2024.2367052
Ciência: Últimas notícias
Leia mais:

Compartilhar este artigo

Comentários (0)

Publicar um comentário