IA pode reduzir crença em teorias da conspiração, sugere estudo

1 min de leitura
Imagem de: IA pode reduzir crença em teorias da conspiração, sugere estudo
Imagem: Getty Images/Reprodução

Pessoas que defendem teorias da conspiração podem ser convencidas a abandonarem suas crenças após interagirem com um chatbot alimentado por inteligência artificial. É o que aponta um estudo feito por psicólogos do Instituto de Tecnologia de Massachusetts (MIT) e da Universidade Cornell, nos Estados Unidos.

Conforme o artigo publicado na Science na sexta-feira (13), cerca de um em cada quatro participantes do experimento mudou de ideia em relação às crenças iniciais, enquanto outros se sentiram, em média, 20% menos confiantes em suas teorias. A pesquisa contou com 2.190 americanos.

smart people are cooler

Tecnologia, negócios e comportamento sob um olhar crítico.

Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo

Teóricos da conspiração podem ser convencidos a mudar de ideia pela IA generativa.Teóricos da conspiração podem ser convencidos a mudar de ideia pela IA generativa.Fonte:  Getty Images/Reprodução 

Os voluntários compartilharam suas ideias conspiratórias com o bot, incluindo diferentes versões para o assassinato de John Kennedy e a eleição presidencial de 2020, além de tratarem temas como os Illuminati e a vacina contra covid-19. Essas pessoas precisavam classificar a confiança em tais teorias em uma escala de 0 a 100.

Durante a interação, a IA apresentava evidências contra as crenças dos conspiracionistas, aprovadas com 99,2% de precisão por um verificador de fatos profissional. A tecnologia foi treinada para se portar de maneira empática na conversa, evitando emitir ofensas e insultos aos participantes.

IA no combate à desinformação

Os pesquisadores destacaram que o resultado mostra como a tecnologia pode ter um papel importante no combate à desinformação, conseguindo convencer mesmo os teóricos da conspiração mais resistentes a mudar de ideia. Algumas dessas pessoas mantiveram o novo posicionamento mesmo depois de dois meses do fim do estudo.

Além disso, se tornaram menos propensas a seguir perfis nas redes sociais que defendem ideias semelhantes às quais tinham antes de participar da conversa com a IA. Parte dos antigos conspiracionistas ainda se mostrou mais disposta a argumentar contra quem defende tais teorias.

Batizado de “DebunkBot”, o mecanismo utilizado no estudo foi alimentado com o GPT-4, o mesmo modelo no qual é baseado o ChatGPT da OpenAI. Muitos dos participantes o agradeceram por auxiliá-los a ver um lado diferente dos temas abordados.

smart people are cooler

Tecnologia, negócios e comportamento sob um olhar crítico.

Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.