As inteligências artificiais modernas podem ser melhores do que humanos para detectar mentidas, aponta um estudo produzido na Alemanha. Uma ferramenta baseada no modelo de linguagem de larga escala (LLM) BERT, do Google, conseguiu detectar mentiras em discursos com 67% de precisão.
Elaborada pela cientista Alicia von Schenk da Universidade de Wurtzburgo na Alemanha, a ferramenta foi treinada com 1,5 mil falas de 768 voluntários do projeto. Todos os participantes deveriam descrever seus planos para o final de semana, mas metade foi incentivada a mentir sobre o assunto — algo plausível, mas ainda mentiroso — em troca de uma pequena recompensa financeira.
Então, cerca de 80% dessas falas foram usadas para treinar um algoritmo alimentado pela LLM BERT projetado para detectar mentiras. Depois disso, as falas restantes foram utilizadas para testar a precisão da ferramenta.
De acordo com a publicação, o algoritmo conseguiu dizer quais declarações eram verdade e quais eram mentira com 67% de precisão.
Quão confiável é uma IA detectora de mentiras?
Em uma segunda parte do estudo, cerca de 2 mil voluntários foram separados em grupos menores. Esses grupos foram desafiados a dizer quais falas eram mentiras ou não, mas podiam contar com o apoio da IA detectora de mentiras para avaliar cada declaração.
A grande maioria rejeitou o uso da ferramenta, mas um terço delas aceitou a oportunidade.
Daí, surgiu uma tendência curiosa: os participantes que avaliaram as falas por conta própria presumiram que a maioria das falas eram verdadeiras — somente 19% das declarações foram marcadas como mentiras. Enquanto isso, o grupo que usou IA apontou que 58% das falas eram falácias.
A ferramenta com inteligência artificial possibilitou que as pessoas percebessem mentiras com mais facilidade, mas mostrou que o público que adotou a IA ficou bem mais cético do que aqueles que avaliaram por conta própria.
Ferramenta útil, mas perigosa
"Dada a grande disseminação de notícias falsas e desinformação, há um benefício em utilizar essas ferramentas [de detecção de mentiras]", conclui von Schenk. "Contudo, é necessário testá-las, e você precisa assegurar que eles são significativamente melhores do que humanos [na detecção de mentiras]", complementou.
Como conclusão do estudo, von Schenk menciona que há um índice de acusação muito maiores quando as ferramentas de IA são utilizadas para avaliar discursos. Portanto, dado ao aumento da desconfiança, é importante que legisladores preparem leis para proteger a privacidade e a confiança de consumidores.
"As políticas econômicas também deveriam considerar incentivos e desincentivos para a adoção de IAs detectoras de mentiras, principalmente em contextos mais delicados", diz o artigo. "Isso está relacionado com questões de responsabilidade legal, confiança pública e as consequências de (falsas) acusações", complementa.
Para conferir o estudo completo, você pode consultar o artigo original na revista iScience: Lie detection algorithms disrupt the social dynamics of accusation behavior (cell.com)
Comments