Estudo: detetores de mentira por IA podem incentivar acusações impulsivas e erradas
São PauloEstudo revela impacto social dos detectores de mentira com IA
Um novo estudo publicado na revista iScience em 27 de junho alerta sobre os impactos sociais dos detectores de mentira baseados em IA. A pesquisa aponta que esses sistemas podem alterar a forma como as pessoas acusam outras de mentir. O estudo demonstra que a IA pode tornar as pessoas mais propensas a acusar alguém de desonestidade, possivelmente porque é mais fácil culpar a tecnologia do que assumir a responsabilidade pessoal.
Acreditar na verdade é um hábito comum, por isso muitas pessoas têm dificuldade em identificar mentiras. Pesquisas indicam que detectar mentiras é quase tão preciso quanto um palpite aleatório. Um estudo recente investigou se a presença de IA altera esses comportamentos e hábitos.
O que foi realizado na pesquisa:
- 986 participantes escreveram uma afirmação verdadeira e uma falsa sobre seus planos de fim de semana.
- Um modelo de IA foi treinado com esses dados e alcançou 66% de precisão em identificar as afirmações verdadeiras e falsas.
- Mais 2.000 participantes leram essas afirmações para julgar se eram verdadeiras ou falsas.
- Os participantes foram divididos em quatro grupos: controle, forçado, bloqueado e escolha.
No grupo de controle, os participantes avaliaram as declarações sem a ajuda de IA. Eles identificaram corretamente as afirmações verdadeiras e falsas em 46% das vezes. Apenas 19% desse grupo classificou as declarações como falsas, mesmo sabendo que metade delas eram falsas. Isso demonstra que eles estavam muito hesitantes em chamar alguém de mentiroso.
No grupo forçado, os participantes sempre viam uma previsão feita por uma IA antes de tomarem suas próprias decisões. Nesse grupo, mais de um terço dos participantes afirmou que algumas declarações eram falsas. Quando a IA indicava que uma declaração era verdadeira, apenas 13% dos participantes discordavam. Porém, quando a IA afirmava que uma declaração era falsa, mais de 40% dos participantes concordavam com a IA.
Nos grupos onde as pessoas puderam optar por usar previsões de IA, apenas um terço solicitou a ajuda da IA. Entre aqueles que usaram a IA, 84% seguiram o conselho da IA e rotularam a afirmação como falsa quando a IA também o fez. Isso demonstra uma grande confiança na IA uma vez que é utilizada.
Muitas pessoas não quiseram usar a IA, mesmo depois de serem informadas que ela detectava mentiras melhor do que os humanos. A equipe de pesquisa ficou surpresa com isso. Eles acreditam que isso pode ocorrer porque as pessoas estão muito confiantes em sua própria capacidade de identificar mentiras.
Cientistas alertam para o uso de IA em decisões cruciais
Pesquisadores afirmam que a IA frequentemente comete erros e pode aumentar preconceitos. Nils Köbis, cientista comportamental da Universidade de Duisburg-Essen, desaconselha confiar excessivamente em IA para decisões importantes, como aquelas relacionadas a pedidos de asilo nas fronteiras. Os formuladores de políticas devem ser cautelosos ao utilizar essas tecnologias em áreas sensíveis.
Köbis destaca que há muita agitação em torno da inteligência artificial. Muitas pessoas acreditam que esses algoritmos são extremamente precisos e justos. No entanto, há um grande risco em depender excessivamente deles, pois a IA possui falhas. Este estudo demonstra que a IA pode mudar nosso comportamento, e precisamos refletir cuidadosamente sobre essas mudanças.
Sociedade desencoraja fortemente as acusações de mentira. A IA pode facilitar essas acusações, podendo resultar em acusações imprudentes, já que as pessoas podem confiar no julgamento da IA. Os formuladores de políticas precisam considerar esses efeitos ao pensar no uso de IA para detectar mentiras.
O estudo é publicado aqui:
http://dx.doi.org/10.1016/j.isci.2024.110201e sua citação oficial - incluindo autores e revista - é
Alicia von Schenk, Victor Klockmann, Jean-François Bonnefon, Iyad Rahwan, Nils Köbis. Lie detection algorithms disrupt the social dynamics of accusation behavior. iScience, 2024; 110201 DOI: 10.1016/j.isci.2024.11020119 de novembro de 2024 · 20:02
IA eficiente ao alcance: modelos de linguagem otimizados para dispositivos móveis
18 de novembro de 2024 · 09:36
Estudo preciso do comportamento de camundongos com menos animais graças à IA inovadora
18 de novembro de 2024 · 07:24
AI revoluciona cirurgias ao identificar tumores cerebrais rapidamente com FastGlioma: avanço promissor na medicina
Compartilhar este artigo