A IA pode convencer as pessoas melhor do que nós
Inteligência artificial

A IA pode convencer as pessoas melhor do que nós

O GPT-4 da OpenAI é muito melhor em convencer humanos com seu ponto de vista durante uma discussão, mas há um porém.

Milhões de pessoas discutem online entre si todos os dias, mas surpreendentemente poucas conseguem mudar a opinião de alguém. Novas pesquisas sugerem que grandes modelos de linguagem (LLMs) podem fazer um trabalho melhor. A descoberta indica que a IA pode se tornar uma ferramenta poderosa para persuadir as pessoas, para o bem ou para o mal.

Mini Banner - Assine a MIT Technology Review

Uma equipe de pesquisadores de várias universidades descobriu que o GPT-4 da OpenAI foi significativamente mais persuasivo do que os humanos quando recebeu a capacidade de adaptar seus argumentos usando informações pessoais sobre a pessoa com quem estava debatendo.

As descobertas fazem parte de um crescente corpo de pesquisas que demonstram o poder persuasivo dos LLMs. Os autores alertam que esses modelos mostram como ferramentas de IA podem criar argumentos sofisticados e persuasivos, mesmo com informações mínimas sobre os humanos com os quais estão interagindo. A pesquisa foi publicada na revista Nature Human Behavior.

“Formuladores de políticas públicas e plataformas online devem considerar seriamente a ameaça de campanhas de desinformação coordenadas com base em IA, já que claramente atingimos o nível tecnológico em que é possível criar uma rede de contas automatizadas baseadas em LLMs capazes de direcionar estrategicamente a opinião pública para uma direção”, afirma Riccardo Gallotti, físico interdisciplinar da Fondazione Bruno Kessler, na Itália, que trabalhou no projeto.

“Esses bots poderiam ser usados para disseminar desinformação, e esse tipo de influência difusa seria muito difícil de refutar em tempo real”, afirma ele.

Os pesquisadores recrutaram 900 pessoas dos Estados Unidos e pediram que fornecessem informações pessoais como gênero, idade, etnia, nível de educação, status de emprego e afiliação política.

Os participantes foram então colocados com outro oponente humano ou com o GPT-4 e instruídos a debater um dos 30 tópicos sorteados, como se os EUA deveriam proibir combustíveis fósseis ou se os estudantes deveriam usar uniformes escolares, durante 10 minutos. Cada participante deveria argumentar a favor ou contra o tópico, e, em alguns casos, recebiam informações pessoais sobre o oponente, para poderem ajustar melhor seus argumentos. No final, os participantes disseram quanto concordavam com a proposição e se achavam que estavam debatendo com um humano ou uma IA.

No geral, os pesquisadores descobriram que o GPT-4 igualou ou superou a capacidade persuasiva dos humanos em todos os tópicos. Quando tinha informações sobre seus oponentes, a IA foi considerada 64% mais persuasiva do que os humanos sem acesso aos dados personalizados, o que significa que o GPT-4 foi capaz de usar as informações pessoais sobre seu oponente de maneira muito mais eficaz do que seus adversários humanos. Quando as pessoas tinham acesso às informações pessoais, foram consideradas ligeiramente menos persuasivas do que as sem esse mesmo acesso.

Os autores notaram que, quando os participantes achavam que estavam debatendo contra uma IA, era mais provável que concordassem com ela. As razões para isso não estão claras, afirmam os pesquisadores, destacando a necessidade de mais estudos.

“Não estamos ainda em uma posição para determinar se a mudança observada na concordância é impulsionada pelas crenças dos participantes sobre seu oponente ser um bot (já que acredito que seja um bot, não estou perdendo para ninguém se mudar de ideia aqui), ou se essas crenças são uma consequência da mudança de opinião (já que perdi, deveria ser contra um bot)”, diz Gallotti. “Essa direção causal é uma questão interessante e aberta para ser explorada.”

Embora o experimento não reflita como os humanos debatem online, a pesquisa sugere que os LLMs também poderiam se provar uma forma eficaz não apenas para disseminar, mas também para combater campanhas de desinformação em massa, afirma Gallotti. Por exemplo, eles poderiam gerar contra-narrativas personalizadas para educar pessoas que possam ser vulneráveis à enganação em conversas online. “No entanto, mais pesquisas são urgentemente necessárias para explorar estratégias eficazes para mitigar essas ameaças”, diz ele.

Embora saibamos muito sobre como os humanos reagem uns aos outros, sabemos muito pouco sobre a psicologia por trás de como as pessoas interagem com modelos de IA, diz Alexis Palmer, bolsista no Dartmouth College, que estudou como os LLMs podem debater sobre política, mas não trabalhou na pesquisa.

“No contexto de ter uma conversa com alguém sobre algo com o qual você discorda, há algo inerentemente humano que importa para essa interação? Ou é que, se uma IA puder imitar perfeitamente essa fala, você terá o mesmo resultado?”, diz ela. “Eu acho que essa é a grande questão sobre a IA.”

Último vídeo

Nossos tópicos