Nova ferramenta pode dar aos artistas vantagem sobre a IA
Inteligência artificial

Nova ferramenta pode dar aos artistas vantagem sobre a IA

O Nightshade envenena as imagens que são usadas para treinar grandes modelos de IA e faz com que o modelo não funcione corretamente.

Banner indicando a posição do botão de download do artigo em formato pdf

A reação liderada por artistas contra a IA está bem encaminhada. Embora muitas pessoas ainda estejam gostando de dar asas à imaginação com modelos populares de conversão de texto em imagem, como DALL-E 2, Midjourney e Stable Diffusion, os artistas estão cada vez mais fartos do novo status quo.

Alguns deles se uniram para protestar contra a prática comum do setor de tecnologia de retirar indiscriminadamente seu trabalho visual da Internet para treinar seus modelos. Os artistas organizaram protestos em plataformas de arte populares, como DeviantArt e Art Station, ou deixaram as plataformas por completo. Alguns até entraram com ações judiciais sobre direitos autorais.

No momento, há uma total assimetria de poder entre as empresas de tecnologia ricas e influentes e os artistas, diz Ben Zhao, professor de ciência da computação da Universidade de Chicago. “As empresas de treinamento podem fazer o que bem entenderem”, diz Zhao.

Mas uma nova ferramenta desenvolvida pelo laboratório de Zhao pode mudar essa dinâmica de poder. Ela se chama Nightshade e funciona fazendo alterações sutis nos pixels da imagem — alterações que são invisíveis ao olho humano, mas que enganam os modelos de aprendizado de máquina, fazendo-os pensar que a imagem representa algo diferente do que realmente representa. Quando os artistas aplicam isso em seus trabalhos e essas imagens são coletadas como dados de treinamento, esses “pixels envenenados” entram no conjunto de dados do modelo de IA e causam o mau funcionamento do modelo. Imagens de cachorros se tornam gatos, chapéus se tornam torradeiras, carros se tornam vacas. Os resultados são realmente impressionantes, e atualmente não há defesa conhecida. Leia mais sobre minha história aqui.

Algumas empresas, como a OpenAI e a Stability AI, se ofereceram para permitir que os artistas optem por não participar dos conjuntos de treinamento ou disseram que respeitarão as solicitações para que seu trabalho não seja extraído. No entanto, no momento, não há nenhum mecanismo para forçar as empresas a cumprirem sua palavra. Zhao diz que o Nightshade poderia ser esse mecanismo. É extremamente caro criar e treinar modelos de IA generativos e pode ser muito arriscado para as empresas de tecnologia extraírem dados que poderiam quebrar suas joias da coroa.

Autumn Beverly, uma artista que pretende usar o Nightshade, diz que descobriu que seu trabalho havia sido extraído do conjunto de dados LAION-5B e isso foi muito “violador”.

“Eu nunca teria concordado com isso e [as empresas de IA] simplesmente o pegaram sem nenhum consentimento, notificação ou qualquer outra coisa”, diz ela.

Antes de ferramentas como a Nightshade, Beverly não se sentia à vontade para compartilhar seu trabalho online. Beverly e outros artistas estão pedindo que as empresas de tecnologia deixem de usar mecanismos de exclusão e passem a pedir consentimento primeiro, e que comecem a compensar os artistas por suas contribuições. Essas exigências envolveriam algumas mudanças realmente revolucionárias na forma como o setor de IA normalmente funciona, mas ela continua esperançosa.

“Espero que as coisas tenham que ser feitas por meio de consentimento, caso contrário, teremos apenas um sistema quebrado”, diz Beverly. “Para mim, esse é o objetivo principal.”

Mas os artistas são o canário na mina de carvão. A luta deles pertence a qualquer pessoa que já tenha publicado algo de seu interesse online. Nossos dados pessoais, publicações em mídias sociais, letras de músicas, artigos de notícias, ficção e até mesmo nossos rostos — qualquer coisa que esteja disponível livremente online pode acabar em um modelo de IA para sempre sem que saibamos.

Ferramentas como o Nightshade podem ser o primeiro passo para que o equilíbrio de poder volte para nós.

Mini Banner - Assine a MIT Technology Review

Aprendizado aprofundado

Como as empresas de Meta e IA recrutaram atores impressionantes para treinar a IA

No início deste ano, uma empresa chamada Realeyes realizou um “estudo de emoções”. Ela recrutou atores e, em seguida, capturou dados de áudio e vídeo de suas vozes, rostos e movimentos, que foram inseridos em um banco de dados de IA. Esse banco de dados está sendo usado para ajudar a treinar avatares virtuais para a Meta. O projeto coincidiu com as greves históricas de Hollywood. Com o setor paralisado, o número maior do que o normal de atores desempregados pode ter sido uma vantagem para a Meta e a Realeyes: havia um novo grupo de “treinadores” — e pontos de dados — perfeitamente adequados para ensinar sua IA a parecer mais humana.

Quem é o dono do seu rosto: muitos atores do setor se preocupam com o fato de que a IA — assim como os modelos descritos no estudo sobre emoções — possa ser usada para substituí-los, independentemente de seus rostos serem exatamente copiados ou não. Leia mais sobre Eileen Guo aqui.

Bits e Bytes

Como a China planeja julgar a segurança da IA generativa

O governo chinês tem um novo documento preliminar que propõe regras detalhadas sobre como determinar se um modelo de IA generativa é problemático. Nossa redatora de tecnologia da China, Zeyi Yang, nos explica isso. (MIT Technology Review)

Os chatbots de IA podem adivinhar suas informações pessoais a partir do que você digita

Uma nova pesquisa descobriu que modelos de linguagem grandes são excelentes para adivinhar as informações privadas das pessoas nos bate-papos. Isso poderia ser usado para melhorar a criação de perfis para anúncios, por exemplo. (Wired)

A OpenAI afirma que sua nova ferramenta pode detectar imagens de DALL-E com 99% de precisão

Os executivos da OpenAI afirmam que a empresa está desenvolvendo a ferramenta depois que as principais empresas de IA assumiram um compromisso voluntário com a Casa Branca de desenvolver marcas d’água e outros mecanismos de detecção para conteúdo gerado por IA. O Google anunciou sua ferramenta de marca d’água em agosto. (Bloomberg)

Modelos de IA falham miseravelmente em transparência

Quando a Universidade de Stanford testou a transparência de grandes modelos de linguagem, descobriu que o modelo de maior pontuação, o LLaMA 2 da Meta, obteve apenas 54 pontos em 100. A crescente opacidade é uma tendência preocupante na IA. Os modelos de IA terão uma enorme influência social, e precisamos de mais visibilidade sobre eles para podermos responsabilizá-los. (Stanford)

Um estudante universitário criou um sistema de IA para ler pergaminhos romanos de 2.000 anos

Que divertido! Um estudante de 21 anos, formado em ciência da computação, desenvolveu um programa de IA para decifrar pergaminhos romanos antigos que foram danificados por uma erupção vulcânica no ano 79. O programa foi capaz de detectar cerca de uma dúzia de letras, que os especialistas traduziram na palavra “porphyras”, que significa púrpura em grego antigo (The Washington Post).

Último vídeo

Nossos tópicos