Chatbots podem persuadir as pessoas para que deixem de acreditar em teorias da conspiração
Inteligência artificial

Chatbots podem persuadir as pessoas para que deixem de acreditar em teorias da conspiração

A IA é habilidosa em acessar vastos repositórios de dados e adaptá-los para um propósito específico—tornando-a uma ferramenta altamente personalizável para combater a desinformação.

O que você encontrará neste artigo:

Chatbots e a persuasão contra teorias da conspiração
O poder da personalização com IA
Resultados e implicações finais

Banner indicando a posição do botão de download do artigo em formato pdf

A internet tornou mais fácil do que nunca encontrar e disseminar teorias da conspiração. E, enquanto algumas são inofensivas, outras podem ser profundamente prejudiciais, semeando discórdia e até levando a mortes desnecessárias.

Agora, os pesquisadores acreditam ter descoberto uma nova ferramenta para combater essas teorias da conspiração: chatbots de IA. Pesquisadores do MIT Sloan e da Universidade Cornell descobriram que conversar sobre uma teoria da conspiração com um modelo de linguagem grande (LLM) reduziu a crença das pessoas nela em cerca de 20% — mesmo entre participantes que afirmaram que suas crenças eram importantes para sua identidade. A pesquisa foi publicada este mês na revista Science.

As descobertas podem representar um importante avanço na forma como interagimos e educamos as pessoas que defendem essas teorias infundadas, diz Yunhao (Jerry) Zhang, pesquisador de pós-doutorado afiliado ao Instituto de Psicologia da Tecnologia, que estuda os impactos da IA na sociedade.

“Elas mostram que, com a ajuda de grandes modelos de linguagem, podemos — não diria resolver, mas pelo menos mitigar esse problema”, afirma. “Isso aponta um caminho para melhorar a sociedade.”

Poucas intervenções têm se mostrado eficazes em mudar a opinião de teóricos da conspiração, diz Thomas Costello, pesquisador afiliado ao MIT Sloan e autor principal do estudo. Parte do que torna isso tão difícil é que diferentes pessoas tendem a se apegar a diferentes partes de uma teoria. Isso significa que, enquanto a apresentação de certas evidências factuais pode funcionar para uma pessoa que acredita em uma teoria, não há garantia de que será eficaz para outra.

É aí que os modelos de IA entram em ação, ele afirma. “Eles têm acesso a uma enorme quantidade de informações sobre diversos tópicos e foram treinados na internet. Por isso, eles têm a capacidade de adaptar contra-argumentos factuais às teorias da conspiração específicas em que as pessoas acreditam.”

A equipe testou seu método pedindo a 2.190 trabalhadores de crowdsourcing que participassem de conversas por texto com o GPT-4 Turbo, o mais recente grande modelo de linguagem da OpenAI.

Mini Banner - Assine a MIT Technology Review

Os participantes foram solicitados a compartilhar detalhes sobre uma teoria da conspiração que consideravam plausível, porque a achavam convincente e quaisquer evidências que acreditassem apoiá-la. Essas respostas foram usadas para personalizar as respostas do chatbot, que os pesquisadores instruíram a ser o mais persuasivo possível.

Eles também foram convidados a indicar o quão confiantes estavam de que sua teoria da conspiração era verdadeira, em uma escala de 0 (definitivamente falsa) a 100 (definitivamente verdadeira), e a avaliar a importância da teoria para sua compreensão do mundo. Em seguida, eles participaram de três rodadas de conversa com o bot de IA. Os pesquisadores escolheram três rodadas para garantir que pudessem coletar um diálogo suficientemente substancial.

Após cada conversa, os participantes responderam às mesmas perguntas de avaliação. Os pesquisadores fizeram um acompanhamento com todos os participantes 10 dias após o experimento e, novamente, dois meses depois, para avaliar se suas opiniões haviam mudado após a conversa com o bot de IA. Os participantes relataram, em média, uma redução de 20% na crença na teoria da conspiração escolhida, sugerindo que conversar com o bot mudou fundamentalmente a opinião de algumas pessoas.

“Mesmo em um ambiente de laboratório, 20% é um grande efeito em mudar as crenças das pessoas”, diz Zhang. “Pode ser mais fraco no mundo real, mas mesmo 10% ou 5% ainda seria muito significativo.”

Os autores procuraram se proteger contra a tendência dos modelos de IA de inventar informações — as famosas alucinações — ao empregar um verificador de fatos profissional para avaliar a precisão de 128 afirmações feitas pela IA. Destas, 99,2% foram consideradas verdadeiras, enquanto 0,8% foram julgadas enganosas. Nenhuma foi classificada como completamente falsa.

Uma explicação para esse alto grau de precisão é que muito já foi escrito sobre teorias da conspiração na internet, tornando-as bem representadas nos dados de treinamento do modelo, diz David G. Rand, professor do MIT Sloan que também trabalhou no projeto. A natureza adaptável do GPT-4 Turbo significa que ele poderia ser facilmente conectado a diferentes plataformas para os usuários interagirem no futuro, acrescenta.

“Você poderia imaginar ir a fóruns de conspiração e convidar as pessoas a fazerem sua própria pesquisa debatendo com o chatbot”, ele diz. “Da mesma forma, redes sociais poderiam ser conectadas a LLMs para postar respostas corretivas para pessoas que compartilham teorias da conspiração, ou poderíamos comprar anúncios no Google contra termos de busca relacionados a conspirações, como ‘Estado Profundo’.”

A pesquisa derrubou as noções preconcebidas dos autores sobre quão receptivas as pessoas seriam a evidências sólidas que desmentem não apenas teorias da conspiração, mas também outras crenças que não são baseadas em informações de qualidade, diz Gordon Pennycook, professor associado da Universidade Cornell que também trabalhou no projeto.

“As pessoas foram notavelmente receptivas às evidências. E isso é realmente importante”, ele diz. “As evidências importam.”

Por:Rhiannon Williams

Rhiannon é reporter e escreve para a principal newsletter de tecnologia da MIT Techonology Review, a The Download.

Último vídeo

Nossos tópicos