O engano possibilitado pela Inteligência Artificial agora permeia nossa vida online. Há os casos de grande repercussão que você pode identificar facilmente, como quando autoridades da Casa Branca compartilharam recentemente uma imagem manipulada de uma manifestante em Minnesota e depois zombaram daqueles que perguntaram sobre isso. Em outras vezes, ele entra silenciosamente nos feeds das redes sociais e acumula visualizações, como os vídeos que campanhas de influência russas estão atualmente espalhando para desencorajar os ucranianos de se alistarem.
É em meio a essa confusão que a Microsoft apresentou um plano, compartilhado com a MIT Technology Review, de como provar o que é real online.
Uma equipe de pesquisa em segurança de IA da empresa avaliou, recentemente, como os métodos de documentação da manipulação digital estão se saindo diante dos desenvolvimentos de IA mais preocupantes de hoje, como deepfakes interativos e modelos hiper-realistas amplamente acessíveis. Ela então recomendou padrões técnicos que podem ser adotados por empresas de IA e plataformas de redes sociais.
Para entender o padrão-ouro que a Microsoft está defendendo, imagine que você tem uma pintura de Rembrandt e está tentando documentar sua autenticidade. Você poderia descrever sua procedência com um registro detalhado de onde a pintura veio e de todas as vezes que ela mudou de mãos. Você poderia aplicar uma marca-d’água que seria invisível para os humanos, mas legível por uma máquina. E você poderia digitalizar a pintura e gerar uma assinatura matemática, como uma impressão digital, com base nas pinceladas. Se você exibisse a obra em um museu, um visitante cético poderia então examinar essas provas para verificar que ela é original.
Todos esses métodos já estão sendo usados, em graus variados, no esforço para verificar conteúdo online. A Microsoft avaliou 60 combinações diferentes deles, modelando como cada configuração resistiria sob diferentes cenários de falha, desde metadados sendo removidos até conteúdo sendo ligeiramente alterado ou deliberadamente manipulado. A equipe então mapeou quais combinações produzem resultados consistentes que as plataformas podem mostrar com confiança às pessoas online, e quais são tão pouco confiáveis que podem causar mais confusão do que esclarecimento.
O diretor científico da empresa, Eric Horvitz, diz que o trabalho foi motivado por legislação, como a Lei de Transparência em IA da Califórnia, que entrará em vigor em agosto, e pela velocidade com que a IA se desenvolveu para combinar vídeo e voz com fidelidade impressionante.
“Você poderia chamar isso de autorregulação”, disse Horvitz à MIT Technology Review. Mas está claro que ele vê a realização desse trabalho como algo que fortalece a imagem da Microsoft: “Também estamos tentando ser um fornecedor selecionado, desejado por pessoas que querem saber o que está acontecendo no mundo.”
Ainda assim, Horvitz se recusou a se comprometer com o uso, pela Microsoft, de sua própria recomendação em todas as suas plataformas. A empresa está no centro de um gigantesco ecossistema de conteúdo de IA: ela opera o Copilot, que pode gerar imagens e texto; opera o Azure, o serviço de nuvem por meio do qual clientes podem acessar a OpenAI e outros grandes modelos de IA; é proprietária do LinkedIn, uma das maiores plataformas profissionais do mundo; e detém uma participação significativa na OpenAI. Mas, quando questionado sobre a implementação interna, Horvitz disse em uma declaração: “Grupos de produto e líderes de toda a empresa estiveram envolvidos neste estudo para orientar roteiros de produto e infraestrutura, e nossas equipes de engenharia estão agindo com base nas conclusões do relatório.”
É importante observar que há limites inerentes a essas ferramentas; assim como elas não lhe diriam o que seu Rembrandt significa, elas não foram criadas para determinar se o conteúdo é preciso ou não. Elas apenas revelam se ele foi manipulado. É um ponto que Horvitz diz ter de explicar a legisladores e a outras pessoas que são céticas em relação às Big Techs como árbitras da verdade.
“Não se trata de tomar qualquer decisão sobre o que é verdadeiro e o que não é verdadeiro”, disse ele. “Trata-se de criar rótulos que apenas informem às pessoas de onde as coisas vieram.”
Hany Farid, professor da UC Berkeley especializado em perícia digital, mas que não esteve envolvido na pesquisa da Microsoft, diz que, se o setor adotasse o plano da empresa, seria significativamente mais difícil enganar o público com conteúdo manipulado. Indivíduos sofisticados ou governos podem trabalhar para contornar essas ferramentas, diz ele, mas o novo padrão poderia eliminar uma parcela significativa de material enganoso.
“Não acho que isso resolva o problema, mas acho que reduz uma parte bem grande dele”, diz ele.
Ainda assim, há razões para ver a abordagem da Microsoft como um exemplo de um tecno-otimismo um tanto ingênuo. Há evidências crescentes de que as pessoas são influenciadas por conteúdo gerado por IA mesmo quando sabem que ele é falso. E, em um estudo recente sobre vídeos pró-Rússia gerados por IA a respeito da guerra na Ucrânia, comentários apontando que os vídeos foram feitos com IA receberam muito menos engajamento do que comentários que os tratavam como genuínos.
“Há pessoas que, não importa o que você diga a elas, vão acreditar no que acreditam?”, pergunta Farid. “Sim.” Mas, acrescenta ele, “há uma grande maioria de americanos e de cidadãos ao redor do mundo que, eu acho, querem saber a verdade.”
Esse desejo não levou exatamente a uma ação urgente por parte das empresas de tecnologia. O Google começou a adicionar uma marca-d’água a conteúdo gerado por suas ferramentas de IA em 2023, o que Farid diz ter sido útil em suas investigações. Algumas plataformas usam o C2PA, um padrão de procedência que a Microsoft ajudou a lançar em 2021. Mas o conjunto completo de mudanças que a Microsoft sugere, por mais poderoso que seja, pode continuar sendo apenas sugestões se ameaçarem os modelos de negócio das empresas de IA ou das plataformas de redes sociais.
“Se os Mark Zuckerbergs e os Elon Musks do mundo acharem que colocar rótulos de ‘gerado por IA’ em algo vai reduzir o engajamento, então, é claro, eles têm incentivo para não fazer isso”, diz Farid. Plataformas como Meta e Google já disseram que incluiriam rótulos para conteúdo gerado por IA, mas uma auditoria conduzida pela Indicator no ano passado constatou que apenas 30% de suas postagens de teste no Instagram, LinkedIn, Pinterest, TikTok e YouTube foram corretamente rotuladas como geradas por IA.
Movimentos mais firmes em direção à verificação de conteúdo podem vir das muitas propostas de regulamentação de IA pendentes ao redor do mundo. A Lei de IA da União Europeia, assim como regras propostas na Índia e em outros lugares, obrigariam as empresas de IA a exigir alguma forma de divulgação de que uma peça de conteúdo foi gerada com IA.
Uma prioridade da Microsoft é, sem surpresa, desempenhar um papel na formulação dessas regras. A empresa empreendeu um esforço de lobby durante a elaboração da Lei de Transparência em IA da Califórnia, o que, segundo Horvitz, tornou “um pouco mais realistas” as exigências da legislação sobre como as empresas de tecnologia devem divulgar conteúdo gerado por IA.
Mas outra é uma preocupação muito real com o que pode acontecer se a implementação dessa tecnologia de verificação de conteúdo for malfeita. Os legisladores estão exigindo ferramentas que possam verificar o que é real, mas as ferramentas são frágeis. Se sistemas de rotulagem forem lançados às pressas, aplicados de forma inconsistente ou estiverem frequentemente errados, as pessoas poderão passar a desconfiar deles por completo, e todo o esforço sairá pela culatra. É por isso que os pesquisadores argumentam que pode ser melhor, em alguns casos, não mostrar absolutamente nada do que um veredito que possa estar errado.
Ferramentas inadequadas também poderiam criar novos caminhos para o que os pesquisadores chamam de ataques sociotécnicos. Imagine que alguém pegue uma imagem real de um evento político tenso e use uma ferramenta de IA para alterar apenas uma parcela sem importância dos pixels da imagem. Quando ela se espalhar online, poderá ser enganosamente classificada pelas plataformas como manipulada por IA. Mas combinar ferramentas de procedência e de marca-d’água significaria que as plataformas poderiam esclarecer que o conteúdo foi apenas parcialmente gerado por IA, e apontar onde as mudanças foram feitas.
A Lei de Transparência em IA da Califórnia será o primeiro grande teste dessas ferramentas nos EUA, mas a aplicação poderá ser contestada pela ordem executiva do presidente Trump, do fim do ano passado, que busca restringir regulamentações estaduais de IA que sejam “onerosas” para o setor. A administração também adotou, de modo geral, uma postura contrária a esforços para conter a desinformação e, no ano passado, por meio do DOGE, cancelou subsídios relacionados à desinformação. E, é claro, canais oficiais do governo na administração Trump compartilharam conteúdo manipulado com IA, a MIT Technology Review informou que o Departamento de Segurança Interna, por exemplo, usa geradores de vídeo do Google e da Adobe para produzir conteúdo que compartilha com o público.
Perguntei a Horvitz se conteúdo falso vindo dessa fonte o preocupa tanto quanto aquele proveniente do restante das redes sociais. Inicialmente, ele se recusou a comentar, mas depois disse: “Os governos não estiveram fora dos setores que estiveram por trás de vários tipos de desinformação manipuladora, e isso é mundial.”




