Após o deprimente escândalo de pornografia deepfake de Taylor Swift e a proliferação de deepfakes políticos, como as ligações robóticas geradas por IA do presidente Biden pedindo aos eleitores que ficassem em casa, as empresas de tecnologia estão se preparando e implementando medidas para detectar melhor o conteúdo gerado por IA.
Em 6 de fevereiro, a Meta disse que vai rotular as imagens geradas por IA no Facebook, Instagram e Threads. Quando alguém usar as ferramentas de IA da Meta para criar imagens, a empresa adicionará marcadores visíveis à imagem, bem como marcas d’água e metadados invisíveis no arquivo de imagem. A empresa afirma que seus padrões estão alinhados com as práticas recomendadas pela Partnership on AI, uma organização sem fins lucrativos de pesquisa de Inteligência Artificial.
As Big Techs também apoiam um padrão técnico promissor que poderia adicionar um “rótulo nutricional” a imagens, vídeos e áudio. Chamado de C2PA, é um protocolo de internet de código aberto que se baseia em criptografia para codificar detalhes sobre as origens de um conteúdo, ou o que os tecnólogos chamam de informações de “procedência”. Os desenvolvedores do C2PA geralmente comparam o protocolo a um rótulo nutricional, mas um que diz de onde o conteúdo veio e quem – ou o quê – o criou. Leia mais sobre o assunto aqui.
Em 8 de fevereiro, o Google anunciou que está se juntando a outros gigantes da tecnologia, como Microsoft e Adobe, no comitê de direção da C2PA e incluirá sua marca d’água SynthID em todas as imagens geradas por IA em suas novas ferramentas Gemini. A Meta diz que também está participando da C2PA. Ter um padrão em todo o setor facilita para as empresas a detecção de conteúdo gerado por IA, independentemente do sistema com o qual foi criado.
A OpenAI também anunciou novas medidas de comprovação de conteúdo na semana passada. Ela diz que adicionará marcas d’água aos metadados das imagens geradas com o ChatGPT e o DALL-E 3, sua IA de criação de imagens. A OpenAI diz que agora incluirá um rótulo visível nas imagens para indicar que elas foram criadas com IA.
Esses métodos são um começo promissor, mas não são infalíveis. É fácil contornar as marcas d’água nos metadados tirando uma captura de tela das imagens e usando apenas isso, enquanto os rótulos visuais podem ser cortados ou editados. Talvez haja mais esperança para marcas d’água invisíveis, como o SynthID do Google, que altera sutilmente os pixels de uma imagem para que os programas de computador possam detectar a marca d’água, mas o olho humano não. Essas marcas são mais difíceis de serem adulteradas. Além disso, não há maneiras confiáveis de rotular e detectar vídeo, áudio ou até mesmo texto gerados por IA.
Mas ainda há valor na criação dessas ferramentas de procedência. Como Henry Ajder, especialista em IA generativa, me disse há algumas semanas, quando o entrevistei sobre como evitar a pornografia deepfake, o objetivo é criar uma “jornada perversa do cliente”. Em outras palavras, adicionar barreiras e atritos ao pipeline de deepfake para retardar ao máximo a criação e o compartilhamento de conteúdo nocivo. É provável que uma pessoa determinada ainda consiga ignorar essas proteções, mas qualquer coisa ajuda.
Há também muitas correções não técnicas que as empresas de tecnologia poderiam introduzir para evitar problemas como a pornografia deepfake. Os principais provedores de serviços de nuvem e lojas de aplicativos, como Google, Amazon, Microsoft e Apple, poderiam proibir serviços que possam ser usados para criar nudes deepfake não consensuais. E as marcas d’água devem ser incluídas em todo o conteúdo gerado por IA, mesmo por startups menores que estejam desenvolvendo a tecnologia.
O que me dá esperança é que, juntamente com essas medidas voluntárias, estamos começando a ver regulamentações obrigatórias, como a AI Act da UE e a Digital Services Act, que exigem que as empresas de tecnologia divulguem o conteúdo gerado por IA e removam o conteúdo prejudicial mais rapidamente. Há também um interesse renovado entre os legisladores dos EUA em aprovar algumas regras obrigatórias sobre deepfakes. E após as ligações automáticas geradas por IA do presidente Biden dizendo aos eleitores para não votarem, a Comissão Federal de Comunicações dos EUA anunciou na semana passada que estava proibindo o uso de IA nessas ligações.
Em geral, sou bastante cético em relação a diretrizes e regras voluntárias, porque não há um mecanismo de responsabilidade real e as empresas podem optar por alterar essas regras quando quiserem. O setor de tecnologia tem um histórico muito ruim de regulamentação própria. No mundo da tecnologia, que é acirrado e impulsionado pelo crescimento, coisas como a IA responsável costumam ser as primeiras a sofrer cortes.
Mas, apesar disso, esses anúncios são extremamente bem-vindos. Eles também são muito melhores do que o status quo, que é quase nada.