Chatbots de IA conseguem influenciar melhor os eleitores do que anúncios políticos
Governança

Chatbots de IA conseguem influenciar melhor os eleitores do que anúncios políticos

Uma conversa pode mudar as visões políticas das pessoas, mas os modelos mais persuasivos também são os que mais disseminam desinformação

Em 2024, uma candidata democrata ao Congresso na Pensilvânia, Shamaine Daniels, usou um chatbot de IA chamado Ashley para ligar para eleitores e manter conversas com eles. “Olá. Meu nome é Ashley, e sou uma voluntária de Inteligência Artificial na campanha de Shamaine Daniels para o Congresso”; assim começavam as ligações. Daniels não venceu a eleição. Mas talvez essas chamadas tenham ajudado sua campanha: uma nova pesquisa revela que chatbots de IA conseguem mudar a opinião dos eleitores em uma única conversa e são surpreendentemente eficazes nisso.

Mini Banner - Assine a MIT Technology Review

Uma equipe de pesquisadores de várias universidades descobriu que conversar com um modelo de IA politicamente tendencioso foi mais eficaz do que anúncios políticos para estimular tanto democratas quanto republicanos a apoiar candidatos presidenciais do partido oposto. Os chatbots influenciaram opiniões ao citar fatos e evidências, mas nem sempre foram precisos. Na verdade, os pesquisadores constataram que os modelos mais persuasivos foram os que disseram mais coisas falsas.

As conclusões, detalhadas em dois estudos publicados nas revistas Nature e Science, fazem parte de um conjunto crescente de pesquisas que demonstram o poder persuasivo dos grandes modelos de linguagem (Large Language Models, ou LLM). Elas levantam questões profundas sobre como a IA generativa pode remodelar as eleições.

“Uma única conversa com um modelo tem um efeito bastante significativo sobre escolhas eleitorais relevantes”, afirma Gordon Pennycook, psicólogo da Universidade Cornell, que trabalhou no estudo publicado na Nature. Segundo ele, a IA consegue persuadir as pessoas de forma mais eficaz do que anúncios políticos porque gera muito mais informações em tempo real e as utiliza de maneira estratégica ao longo das conversas.

Para o artigo da Nature, os pesquisadores recrutaram mais de 2.300 participantes para conversar com um chatbot dois meses antes da eleição presidencial dos Estados Unidos, em 2024. Treinado para defender um dos dois principais candidatos, ele mostrou-se relativamente persuasivo, especialmente ao discutir as plataformas políticas dos candidatos em temas como economia e saúde. Apoiadores de Donald Trump que conversaram com um modelo de IA favorável a Kamala Harris tornaram-se ligeiramente mais propensos a apoiá-la, deslocando-se 3,9 pontos em direção a Harris, em uma escala de 100 pontos. Esse efeito foi cerca de quatro vezes maior do que o impacto medido de anúncios políticos nas eleições de 2016 e 2020. Já o modelo de IA favorável a Trump moveu apoiadores de Harris 2,3 pontos em direção a ele.

Em experimentos semelhantes, realizados antes da eleição federal canadense e da eleição presidencial da Polônia, ambas em 2025, a equipe encontrou um efeito ainda maior. Os chatbots deslocaram as atitudes de eleitores da oposição em cerca de 10 pontos.

Teorias consolidadas sobre o raciocínio politicamente motivado sustentam que eleitores partidários são impermeáveis a fatos e evidências que contradizem suas crenças. Mas os pesquisadores constataram que os chatbots, que utilizaram uma variedade de modelos, incluindo versões do GPT e do DeepSeek, foram mais persuasivos quando receberam a instrução de usar fatos e evidências do que quando foram orientados a não fazê-lo.

“As pessoas estão atualizando suas posições com base nos fatos e nas informações que o modelo está fornecendo”, afirma Thomas Costello, psicólogo da American University que trabalhou no projeto.

O problema é que parte das “evidências” e dos “fatos” apresentados pelos chatbots não era verdadeira. Nos três países analisados, os chatbots que defendiam candidatos de direita fizeram um número maior de afirmações imprecisas do que aqueles que defendiam candidatos de esquerda. Os modelos subjacentes são treinados com enormes volumes de textos escritos por humanos, o que significa que reproduzem fenômenos do mundo real, incluindo a “comunicação política que vem da direita, que tende a ser menos precisa”, de acordo com estudos sobre postagens partidárias em redes sociais, diz Costello.

No outro estudo publicado na Science, uma equipe parcialmente sobreposta de pesquisadores investigou o que torna esses chatbots tão persuasivos. Eles mobilizaram 19 LLMs para interagir com quase 77 mil participantes do Reino Unido sobre mais de 700 temas políticos, variando fatores como poder computacional, técnicas de treinamento e estratégias retóricas.

A maneira mais eficaz de tornar os modelos persuasivos foi instruí-los a rechear seus argumentos com fatos e evidências e, em seguida, oferecer treinamento adicional, alimentando-os com exemplos de conversas persuasivas. De fato, o modelo mais persuasivo deslocou em 26,1 pontos, em direção à concordância, os participantes que inicialmente discordavam de uma afirmação política. “Esses são efeitos de tratamento realmente grandes”, afirma Kobi Hackenburg, cientista pesquisador do UK AI Security Institute, que trabalhou no projeto.

Otimizar a persuasão teve um custo para a veracidade. À medida que os modelos se tornaram mais persuasivos, eles passaram, cada vez mais, a fornecer informações enganosas ou falsas, e ninguém sabe ao certo por quê. “Pode ser que, à medida que os modelos aprendem a mobilizar cada vez mais fatos, eles basicamente cheguem ao fundo do barril do que sabem, então os fatos ficam de pior qualidade”, diz Hackenburg.

O poder de persuasão dos chatbots pode ter consequências profundas para o futuro da democracia, observam os autores. Campanhas políticas que usem chatbots de IA poderiam moldar a opinião pública de maneiras que comprometam a capacidade dos eleitores de fazer julgamentos políticos independentes.

Último vídeo

Nossos tópicos