Três formas de combater a pornografia deepfake
Inteligência artificial

Três formas de combater a pornografia deepfake

Taylor Swift, recentemente, foi objeto de uma campanha cruel de pornografia deepfake não consensual. Essas ferramentas e políticas podem ajudar-nos a impedir que isso volte a acontecer.

Imagens sexualmente explícitas de uma das maiores estrelas pop do mundo, Taylor Swift, tornaram-se virais na internet. Milhões de pessoas viram no X, antigo Twitter, pornografia deepfake não consensual da cantora. Desde então, a plataforma tomou a medida drástica de bloquear todas as pesquisas pelo seu nome para tentar controlar o problema. 

Este não é um fenômeno novo: os deepfakes existem há anos. No entanto, o aumento da IA generativa tornou mais fácil do que nunca criar esse tipo de material e assediar sexualmente as pessoas utilizando imagens e vídeos gerados pela tecnologia. 

De todos os tipos de danos relacionados à IA generativa, os deepfakes não consensuais afetam o maior número de pessoas, sendo que as mulheres constituem a maioria dos visados, diz Henry Ajder, um perito especializado em IA generativa e meios sintéticos. 

Felizmente, há alguma esperança. Novas ferramentas e leis podem dificultar a utilização de fotografias de pessoas como arma por parte de criminosos e podem ajudar-nos a responsabilizá-los. 

Aqui estão as três formas de combater a pornografia deepfake não consensual.  

  

MARCAS D’ÁGUA 

As plataformas de mídia social examinam as publicações que são carregadas em seus sites e retiram o conteúdo que vai contra suas políticas. Mas esse processo é, na melhor das hipóteses, irregular e deixa passar muito conteúdo nocivo, como mostram os vídeos da Taylor no X. Também é difícil distinguir entre conteúdo autêntico e gerado por IA. 

Uma solução técnica poderia ser o uso de marcas d’água. Elas ocultam um sinal nas imagens que ajuda os computadores a identificarem se elas foram geradas por IA. Por exemplo, o Google desenvolveu um sistema chamado SynthID, que usa redes neurais para modificar pixels em imagens e adiciona uma marca d’água que é invisível ao olho humano. Essa marca foi projetada para ser detectada mesmo que a imagem seja editada ou capturada na tela. Em teoria, essas ferramentas poderiam ajudar as empresas a melhorarem suas moderações de conteúdo e torná-las mais rápidas para detectar conteúdo falso, inclusive deepfakes não consensuais. 

Prós: as marcas d’água podem ser uma ferramenta útil que facilita e agiliza a identificação de conteúdo gerado por IA e de publicações tóxicas que devem ser removidas. A inclusão delas em todas as imagens por padrão também dificultaria a criação de deepfakes não consensuais por parte dos invasores, diz Sasha Luccioni, pesquisadora da startup de AI Hugging Face, que estudou a parcialidade dos sistemas de Inteligência Artificial. 

Contras: esses sistemas ainda são experimentais e não são amplamente utilizados. E um invasor determinado ainda pode adulterá-los. As empresas também não estão aplicando a tecnologia a todas as imagens. Os usuários do “Imagen AI” do Google podem escolher se querem que suas imagens geradas por AI tenham a marca d’água, por exemplo. Todos esses fatores limitam sua utilidade no combate à pornografia deepfake. 

 

ESCUDOS DE PROTEÇÃO 

No momento, todas as imagens que publicamos online são um jogo livre para qualquer pessoa usar para criar um deepfake. E como os mais recentes sistemas de IA para criação de imagens são muito sofisticados, está cada vez mais difícil provar que o conteúdo gerado é falso. 

No entanto, uma série de novas ferramentas de defesa permite que as pessoas protejam suas imagens contra a exploração por IA, fazendo com que elas pareçam distorcidas nos sistemas.  

Uma dessas ferramentas, chamada PhotoGuard, foi desenvolvida por pesquisadores do MIT. Ela funciona como um escudo protetor, alterando os pixels das fotos de forma invisível ao olho humano. Quando alguém usa um aplicativo de IA, como o gerador de imagens Stable Diffusion, para manipular uma imagem que foi tratada com o PhotoGuard, o resultado parecerá irrealista. Fawkes, uma ferramenta semelhante desenvolvida por pesquisadores da Universidade de Chicago, oculta imagens com sinais ocultos que dificultam o reconhecimento de rostos pelo software de reconhecimento facial. 

Outra nova ferramenta, chamada Nightshade, pode ajudar as pessoas a se defenderem contra o uso de sistemas de IA. A ferramenta, desenvolvida por pesquisadores da Universidade de Chicago, aplica uma camada invisível de “veneno” às imagens. A ferramenta foi desenvolvida para proteger os artistas de terem suas imagens protegidas por direitos autorais raspadas por empresas de tecnologia sem seu consentimento. No entanto, em teoria, ela poderia ser usada em qualquer imagem que seu proprietário não queira que acabe sendo raspada por sistemas de IA. Quando as empresas de tecnologia pegam material de treinamento online sem consentimento, essas imagens envenenadas quebram o modelo de IA. Imagens de gatos podem se tornar cães, e imagens de Taylor Swift também podem se tornar cães. 

Prós: Essas ferramentas tornam mais difícil para os invasores usarem nossas imagens para criar conteúdo nocivo. Elas se mostram promissoras em fornecer proteção a pessoas físicas contra o abuso de imagens por IA, especialmente se os aplicativos de namoro e as empresas de mídia social as aplicarem por padrão, diz Ajder. 

“Todos nós deveríamos usar o Nightshade em todas as imagens que publicamos na Internet”, diz Luccioni.  

Contras: esses escudos defensivos funcionam na última geração de modelos de IA. Mas não há garantia de que as versões futuras não consigam anular esses mecanismos de proteção. Eles também não funcionam em imagens que já estão online e são mais difíceis de aplicar a imagens de celebridades, pois as pessoas famosas não controlam quais fotos delas são carregadas online.  

“Será um grande jogo de gato e rato”, diz Rumman Chowdhury, que dirige a empresa de consultoria e auditoria ética de IA Parity Consulting. 

 

REGULAÇÃO 

As correções técnicas não são suficientes. A única coisa que levará a uma mudança duradoura é uma regulamentação mais rígida, diz Luccioni. 

Os deepfakes virais da Taylor Swift deram um novo impulso aos esforços para reprimir a pornografia deepfake. A Casa Branca disse que o incidente foi “alarmante” e pediu ao Congresso que tomasse medidas legislativas. Até o momento, os EUA têm adotado uma abordagem fragmentada, estado por estado, para regulamentar a tecnologia. Por exemplo, a Califórnia e a Virgínia proibiram a criação de deepfakes pornográficos feitos sem consentimento. Nova York e Virgínia também proibiram a distribuição desse tipo de conteúdo.  

No entanto, finalmente poderemos ver uma ação em nível federal. Um novo projeto de lei bipartidário que tornaria o compartilhamento de imagens falsas de nudez um crime federal foi recentemente reintroduzido no Congresso dos EUA. Um escândalo de pornografia deepfake em uma escola de ensino médio de Nova Jersey também levou os legisladores a responder com um projeto de lei chamado Preventing Deepfakes of Intimate Images Act. A atenção que o caso de Swift trouxe para o problema pode angariar mais apoio bipartidário.  

Legisladores de todo o mundo também estão pressionando por leis mais rígidas para a tecnologia. O Online Safety Act do Reino Unido, aprovado no ano passado, proíbe o compartilhamento de material pornográfico deepfake, mas não sua criação. Os infratores podem pegar até seis meses de prisão.  

Na União Europeia, uma série de novos projetos de lei aborda o problema de diferentes ângulos. A abrangente Lei de IA exige que os criadores de deepfake divulguem claramente que o material foi criado por IA, e a Lei de Serviços Digitais exigirá que as empresas de tecnologia removam conteúdo nocivo com muito mais rapidez.  

A lei de deepfake da China, que entrou em vigor em 2023, é a que vai mais longe. Na China, os criadores de deepfake precisam tomar medidas para evitar o uso de seus serviços para fins ilegais ou prejudiciais, solicitar o consentimento dos usuários antes de transformar suas imagens em deepfakes, autenticar as identidades das pessoas e rotular o conteúdo gerado por IA.  

Prós: A regulamentação oferecerá recursos às vítimas, responsabilizará os criadores de pornografia deepfake não consensual e criará um poderoso impedimento. Ela também envia uma mensagem clara de que a criação de deepfakes não consensuais não é aceitável. Leis e campanhas de conscientização pública que deixem claro que as pessoas que criam esse tipo de pornografia deepfake são criminosos sexuais podem ter um impacto real, diz Ajder. “Isso mudaria a atitude um pouco blasé que algumas pessoas têm em relação a esse tipo de conteúdo, que não é prejudicial ou não é uma forma real de abuso sexual”, diz ele.  

Contras: Será difícil aplicar esses tipos de leis, diz Ajder. Com as técnicas atuais, será difícil para as vítimas identificarem quem as agrediu e construir um caso contra essa pessoa. A pessoa que cria os deepfakes também pode estar em uma jurisdição diferente, o que dificulta a acusação. 

Último vídeo

Nossos tópicos