Um aplicativo de Inteligência Artificial que “desnudava” mulheres mostra como as deepfakes prejudicam os mais vulneráveis
Computação

Um aplicativo de Inteligência Artificial que “desnudava” mulheres mostra como as deepfakes prejudicam os mais vulneráveis

DeepNude foi encerrada, mas não será a última vez que tal tecnologia será usada para atingir populações vulneráveis.

A atenção em torno das deepfakes e da mídia sintética cresceu nos últimos meses. Mas embora a conversa tenha se concentrado principalmente em seu impacto potencial na política, vários especialistas em direitos humanos e ética da tecnologia alertaram que outro dano potencial foi esquecido: as consequências possivelmente devastadoras para as mulheres e outras populações vulneráveis ​​que são visadas pela tecnologia, mas não podem proteger eles mesmos.

Agora, o mais recente experimento deepfake – um aplicativo chamado DeepNude que “desnudava” fotos de mulheres – está tornando esses pesadelos em realidade. Relatado pela primeira vez pela Vice, ele usou Redes Adversárias Geradoras, ou GANs, para substituir as roupas das mulheres por corpos nus altamente realistas. O artigo rapidamente inspirou uma reação viral, e o criador do aplicativo o encerrou.

“O aplicativo DeepNude prova nossos piores temores sobre a forma única como as ferramentas audiovisuais podem ser usadas como arma contra as mulheres”, disse Mutale Nkonde, pesquisadora do Data & Society Research Institute, assessora de um projeto de lei apresentado no Congresso pela deputada Yvette Clarke que criaria mecanismos para que as vítimas de tais falsificações maliciosas busquem recursos legais por danos à reputação.

O aplicativo era voltado especificamente para mulheres. Vice descobriu que o software gerava apenas imagens do corpo feminino, mesmo quando recebia a foto de um homem. O criador anônimo confirmou que treinou o algoritmo GAN apenas com fotos de mulheres nuas – neste caso, mais de 10.000 delas – porque eram mais fáceis de encontrar online. Ele, no entanto, também pretendia eventualmente fazer uma versão masculina.

Embora as deepfakes não representassem os corpos reais das mulheres – eles são completamente sintetizados pelo algoritmo – ainda assim tinham o potencial significativo de causar danos emocionais e de reputação. As imagens podem ser facilmente confundidas com as reais e usadas como pornografia de vingança ou uma ferramenta poderosa para silenciar mulheres. Na verdade, isso já aconteceu antes: uma jornalista na Índia teve seu rosto inserido em um vídeo pornô depois que começou a expor a corrupção no governo. Instantaneamente se tornou viral, sujeitando-a a ameaças de estupro e assédio intenso, e ela teve que ficar offline por vários meses.

Deepfakes não são uma nova ameaça; a mídia manipulada existe desde muito antes da Inteligência Artificial. Mas a tecnologia acelerou e ampliou as tendências existentes, diz Sam Gregory, diretor de programa da organização sem fins lucrativos de direitos humanos da Witness. Os algoritmos tornaram muito mais fácil e acessível a criação de mídia falsa cada vez mais convincente. Portanto, qualquer coisa que as pessoas tenham usado para manipular a mídia no passado, como atacar jornalistas, insinuar corrupção ou ofuscar evidências, se tornará cada vez mais comum e perigosamente difícil de detectar.

O aplicativo não é diferente, diz ele. O abuso sexual de mulheres baseado em imagens já existia como um problema. Agora, deepfakes estão adicionando combustível às chamas.

Pela mesma lógica, Nkonde se preocupa que as mulheres não sejam os únicos alvos vulneráveis ​​de falsificações. Minorias, pessoas LGBTQ e outros grupos frequentemente sujeitos ao assédio online mais severo provavelmente também se tornarão vítimas – embora talvez de maneiras diferentes. Durante a campanha presidencial dos EUA de 2016, por exemplo, os agentes russos usaram personas afro-americanas falsas e imagens relacionadas como parte de uma campanha de desinformação do Facebook para aumentar as tensões raciais entre os americanos.

“Esta foi uma nova forma de repressão aos eleitores, e foi através da apropriação indevida da identidade das pessoas online”, diz Nkonde. A tecnologia deepfake seria outra ferramenta natural para agentes mal-intencionados que fingem ser pessoas que não são, para perturbar comunidades e causar danos de outra forma.

Então, para onde vamos a partir daqui? Nkonde e Gregory compartilharam recomendações semelhantes com a MIT Technology Review americana no passado: empresas e pesquisadores que produzem ferramentas para deepfakes também devem investir em contramedidas, e as empresas de mídia social e busca devem integrá-las diretamente em suas plataformas. Nkonde também insiste aos reguladores para agirem rapidamente. “A menos que o governo encontre uma maneira de proteger os direitos dos consumidores, aplicativos como este vão proliferar”, diz ela.

“A tecnologia não é neutra”, diz Gregory. “Este aplicativo [DeepNude] não é de uso duplo. É de uma via única para um propósito malicioso e está sendo criado amoralmente”.

“Devemos nos concentrar na ética da criação e compartilhamento de ferramentas que geram conteúdo”, ele acrescenta. “Devemos insistir nisso repetidamente.”

Nossos tópicos