Desde o início do boom da IA generativa, artistas têm se preocupado com a possibilidade de perderem seus meios de sustento para ferramentas de inteligência artificial. Há inúmeros exemplos de empresas substituindo trabalho humano por softwares. Recentemente, a Coca-Cola gerou controvérsia ao criar um novo comercial de Natal usando IA generativa.
Artistas e escritores abriram diversos processos contra empresas de inteligência artificial, alegando que suas obras foram coletadas para bancos de dados usados no treinamento de modelos de IA sem autorização ou compensação. Em resposta, empresas de tecnologia argumentam que qualquer material disponível na internet pública estaria sob a regra de “uso justo”. Contudo, pode levar anos até que essa questão tenha uma resolução legal definitiva.
Infelizmente, pouco pode ser feito se suas obras já foram incorporadas em um conjunto de dados e usadas para treinar um modelo existente. No entanto, é possível tomar medidas para evitar que isso aconteça no futuro.
Aqui estão quatro maneiras de fazer isso:
1. Masque seu estilo
Uma das formas mais populares de artistas enfrentarem a coleta de dados por IA é aplicando “máscaras” em suas imagens para proteger seus estilos pessoais de serem copiados.
Ferramentas como Mist, Anti-DreamBooth e Glaze introduzem alterações minúsculas nos pixels das imagens, invisíveis ao olho humano. Assim, quando essas imagens são coletadas, os modelos de aprendizado de máquina não conseguem interpretá-las corretamente.
Mist e Anti-DreamBooth exigem habilidades de programação para uso, enquanto o Glaze, desenvolvido por pesquisadores da Universidade de Chicago, é mais acessível. Ele pode ser baixado gratuitamente como aplicativo ou aplicado online, sendo a ferramenta mais popular, com milhões de downloads.
Ainda assim, essas defesas não são infalíveis, e o que funciona hoje pode não funcionar amanhã. A segurança cibernética frequentemente desafia sistemas de proteção para descobrir falhas e aprimorá-los. Ao usar essas ferramentas, é importante entender que, uma vez que algo está online, você perde o controle e não pode adicionar proteções retroativamente.
2. Reavalie onde e como você compartilha
Sites populares de portfólios de arte, como DeviantArt e Flickr, são minas de ouro para empresas de IA em busca de dados para treinamento. Além disso, ao compartilhar imagens em plataformas como o Instagram, sua controladora, a Meta, pode usar esses dados para construir modelos de IA indefinidamente, se forem compartilhados publicamente.
Uma maneira de evitar isso é não compartilhar imagens publicamente ou tornar suas redes sociais privadas. Porém, para muitos criativos, essa não é uma opção viável, já que divulgar trabalhos online é essencial para atrair clientes.
Considere, então, compartilhar suas obras no Cara, uma nova plataforma criada em resposta à reação contra a IA. O Cara colabora com os pesquisadores do Glaze e planeja integrar ferramentas de proteção de arte. Além disso, implementa automaticamente tags “NoAI”, que instruem os coletores de dados a não usarem imagens do site. Embora dependa da boa-fé das empresas de IA para respeitar os desejos dos artistas, essa alternativa já é um avanço.
3. Opte por não ser coletado
Leis de proteção de dados podem ajudar a excluir suas obras do treinamento de IA. Em locais como Reino Unido e União Europeia, você pode solicitar que empresas de tecnologia parem de usar seus dados para IA. Veja, por exemplo, as instruções da Meta para optar por não participar.
O site Have I Been Trained, criado pela Spawning AI, permite verificar se suas imagens estão em bancos de dados de treinamento de IA de código aberto. A organização fez parceria com empresas como a Stability AI, criadora do Stable Diffusion, e a Hugging Face, que promove o acesso aberto à IA. Ao adicionar suas imagens ao Do Not Train Registry da Spawning AI, essas empresas concordaram em removê-las de futuros treinamentos. No entanto, essa prática depende da boa-fé das empresas e ainda não é um padrão da indústria.
4. Se tudo falhar, adicione “veneno”
Pesquisadores da Universidade de Chicago, criadores do Glaze, também desenvolveram o Nightshade, uma ferramenta que adiciona uma camada invisível de “veneno” às suas imagens. Diferente do Glaze, que apenas dificulta a interpretação pelas IA, o Nightshade pode prejudicar futuras versões desses modelos, fazendo com que funcionem de forma imprevisível. Por exemplo, imagens de cães podem ser interpretadas como gatos, ou bolsas como torradeiras.
Segundo os pesquisadores, poucas amostras de veneno são suficientes para causar impacto. O Nightshade pode ser aplicado baixando um aplicativo específico. No futuro, a equipe espera combinar o Glaze e o Nightshade, mas, por enquanto, as proteções precisam ser aplicadas separadamente.
—
Por:Melissa Heikkilä
Melissa é repórter sênior da MIT Technology Review, cobrindo assuntos ligados à Inteligência Artificial e como ela está mudando nossa sociedade.