Os seres humanos podem estar mais propensos a acreditar em desinformação gerada por IA
Inteligência artificial

Os seres humanos podem estar mais propensos a acreditar em desinformação gerada por IA

A maneira como os modelos de IA estruturam o texto pode ter algo a ver com isso.

A desinformação gerada por IA pode ser mais convincente do que a desinformação escrita por humanos, sugere um novo estudo. A pesquisa constatou que as pessoas tinham 3% menos probabilidade de identificar tweets falsos gerados por IA do que aqueles escritos por humanos.

Essa lacuna de credibilidade, embora pequena, é preocupante, pois o problema da desinformação gerada por Inteligência Artificial parece estar prestes a crescer significativamente, diz Giovanni Spitale, pesquisador da Universidade de Zurique que liderou o estudo, publicado na Science Advances 

  

“O fato de a desinformação gerada por IA ser não apenas mais barata e mais rápida, mas também mais eficaz, me dá pesadelos”, diz ele. Ele acredita que, se a equipe repetisse o estudo com o mais recente modelo de linguagem da OpenAI, o GPT-4, a diferença seria ainda maior, já que o GPT-4 é muito mais poderoso. 

Para testar nossa suscetibilidade a diferentes tipos de texto, os pesquisadores escolheram tópicos comuns de desinformação, incluindo mudança climática e Covid. Em seguida, pediram ao grande modelo de linguagem GPT-3 da OpenAI que gerasse 10 tweets verdadeiros e 10 falsos, e coletaram uma amostra aleatória de tweets verdadeiros e falsos do Twitter.

Em seguida, eles recrutaram 697 pessoas para responder a um questionário on-line, avaliando se os tweets foram gerados por IA ou coletados do Twitter, e se eram precisos ou continham desinformação. Eles descobriram que os participantes tinham 3% menos probabilidade de acreditar em tweets falsos escritos por humanos do que em tweets escritos por IA.

Os pesquisadores não sabem ao certo por que as pessoas têm maior probabilidade de acreditar em tweets escritos por IA. Mas a maneira pela qual o GPT-3 ordena as informações pode ter algo a ver com isso, segundo Spitale.  

“O texto do GPT-3 tende a ser um pouco mais estruturado quando comparado ao texto orgânico [escrito por humanos]”, diz ele. “Mas também é condensado, por isso é mais fácil de processar.”

O boom da IA generativa coloca ferramentas de IA poderosas e acessíveis nas mãos de todos, inclusive daqueles que tem más intenções. Modelos como o GPT-3 podem gerar textos incorretos que parecem convincentes, o que poderia ser usado para gerar narrativas falsas de forma rápida e barata para teóricos da conspiração e campanhas de desinformação. As armas para combater o problema – ferramentas de detecção de texto de IA — ainda estão nos estágios iniciais de desenvolvimento, e muitas delas não são totalmente precisas.

A OpenAI sabe que suas ferramentas de IA podem ser usadas como armas para produzir campanhas de desinformação em larga escala. Embora isso viole suas políticas, ela divulgou um relatório em janeiro alertando que é “praticamente impossível garantir que grandes modelos de linguagem nunca sejam usados para gerar desinformação”. A OpenAI não respondeu imediatamente a um pedido de comentário.

No entanto, a empresa também pediu cautela quando se trata de superestimar o impacto das campanhas de desinformação. São necessárias mais pesquisas para determinar as populações com maior risco de conteúdo não autêntico gerado por IA, bem como a relação entre o tamanho do modelo de IA e o desempenho geral ou a capacidade de persuasão de sua produção, afirmam os autores do relatório da OpenAI.

É muito cedo para entrar em pânico, diz Jon Roozenbeek, pesquisador pós-doutorado que estuda a desinformação no departamento de psicologia da Universidade de Cambridge, que não participou do estudo.

Embora a distribuição de desinformação on-line possa ser mais fácil e mais barata com a IA do que com fazendas de trolls com equipe humana, a moderação em plataformas tecnológicas e os sistemas de detecção automatizados ainda são obstáculos à sua disseminação, diz ele. 

“Só porque a IA torna mais fácil escrever um tweet que pode ser um pouco mais persuasivo do que o que algum pobre coitado em alguma fábrica em São Petersburgo criou, isso não significa necessariamente que, de repente, todos estão prontos para serem manipulados”, acrescenta. 

Último vídeo

Nossos tópicos