Desde o início do boom da IA generativa, tem acontecido uma briga sobre como os grandes modelos de IA são treinados. De um lado, estão empresas de tecnologia, como a OpenAI, que afirmam ser “impossível” treinar a IA sem sugar a internet de dados protegidos por direitos autorais. Do outro lado, estão os artistas que argumentam que as empresas de IA se apropriaram de sua propriedade intelectual sem consentimento e retorno.
Nesse sentido, a Adobe é bastante incomum pois está do lado do último grupo, com uma abordagem que se destaca como um exemplo de como os produtos de IA generativa podem ser criados sem a coleta de dados protegidos por copyrights. A Adobe lançou seu modelo de geração de imagens, o Firefly, que está integrado à sua popular ferramenta de edição de fotos, o Photoshop, há um ano.
Em uma entrevista exclusiva à MIT Technology Review, os líderes de IA da Adobe dizem estar convencidos de que esse é o único caminho a seguir. O que está em jogo não é apenas o sustento dos artistas, dizem eles, mas todo o nosso ecossistema de informações. O que eles aprenderam mostra que a criação de uma tecnologia responsável não precisa ser feita às custas de fazer negócios.
“Nos preocupa o fato do setor, especialmente o Vale do Silício, não parar para perguntar “como” ou “por quê”. Só porque você pode construir algo, não significa que você deva construí-lo sem considerar o impacto que está criando”, diz David Wadhwani, presidente da empresa de mídia digital da Adobe.
Essas perguntas orientaram a criação do Firefly. Quando o boom da imagem generativa começou, em 2022, houve uma grande reação contra a IA por parte das comunidades criativas. Muitas pessoas estavam usando modelos de IA generativa como máquinas de conteúdo derivado para criar imagens no estilo de outro artista, provocando uma briga legal sobre direitos autorais e uso justo dos materiais. Além disso, a mais recente tecnologia de IA generativa também facilitou muito a criação de deepfakes e desinformação.
Logo ficou claro que, para oferecer aos criadores o devido crédito e segurança jurídica aos negócios, a empresa não poderia construir seus modelos raspando a web de dados, diz Wadwani.
A Adobe quer colher os benefícios da IA generativa e, ao mesmo tempo, “reconhecer que ela é construída com base no trabalho humano. E temos que descobrir como compensar de forma justa as pessoas por esse trabalho agora e no futuro”, diz Ely Greenfield, diretor de tecnologia da Adobe para mídia digital.
Extrair ou não extrair
A raspagem de dados online, comum na IA, tornou-se altamente controversa recentemente. Empresas de IA, como OpenAI, Stability.AI, Meta e Google, estão enfrentando diversos processos judiciais sobre dados usados para treinamento de IA. As empresas de tecnologia argumentam que os dados disponíveis publicamente são justos. Escritores e artistas discordam e estão pressionando que haja um modelo baseado em licença, no qual os criadores seriam compensados pela inclusão de seu trabalho em conjuntos de dados de treinamento.
“A Adobe treinou o Firefly com conteúdo que tinha uma licença explícita permitindo o treinamento de IA, o que significa que a maior parte dos dados de treinamento vem da biblioteca de fotos da Adobe”, diz Greenfield. “A empresa oferece aos criadores uma recompensa extra quando o material é usado para treinar modelos de IA”, acrescenta ele.
Isso contrasta com o cenário atual da IA, onde as empresas de tecnologia raspam a internet indiscriminadamente e têm uma compreensão limitada de que os dados de treinamento consistem. Devido a essas práticas, os conjuntos de dados de IA inevitavelmente incluem conteúdos protegidos por direitos autorais e dados pessoais, e pesquisas revelam a presença de materiais tóxicos, como de abuso sexual infantil.
A raspagem da internet oferece às empresas de tecnologia uma maneira barata de obter muitos dados de treinamento de IA e, tradicionalmente, isso permite que os desenvolvedores criem modelos mais poderosos. Limitar o Firefly a informações licenciadas para treinamento foi uma aposta arriscada, diz Greenfield.
“Para ser sincero, quando lançamos o Firefly com nosso modelo de imagem, não sabíamos se conseguiríamos ou não satisfazer as necessidades dos clientes sem raspar a internet”, diz Greenfield.
“E descobrimos que poderíamos, o que foi ótimo.”
Os moderadores de conteúdos humanos também analisam os dados de treinamento para poder eliminar conteúdos questionáveis ou prejudiciais, propriedades intelectuais conhecidas e imagens de pessoas famosas. A empresa tem licenças para tudo o que seus produtos treinam.
“A estratégia da Adobe tem sido integrar as ferramentas de IA generativa em seus produtos existentes”, diz Greenfield. No Photoshop, por exemplo, os usuários do Firefly podem preencher áreas de uma imagem usando comandos de texto. Isso permite que eles tenham muito mais controle sobre o processo criativo e ajuda na criatividade.
Mesmo assim, ainda há mais trabalho a ser feito. A empresa quer tornar o Firefly ainda mais rápido. “Atualmente, são necessários cerca de 10 segundos para que os algoritmos de moderação de conteúdo da empresa verifiquem os resultados do modelo, por exemplo”, diz Greenfield. A Adobe também está tentando descobrir como alguns clientes empresariais poderiam gerar conteúdo protegido por direitos autorais, como personagens da Marvel ou Mickey Mouse. A empresa fez uma parceria com companhias como IBM, Mattel, NVIDIA e NASCAR, o que permite que todas elas usem a ferramenta com sua propriedade intelectual. A Adobe também está trabalhando em áudio, ferramentas de sincronização labial e geração 3D.
Entra lixo, sai lixo
A decisão de não raspar a internet também dá à Adobe uma vantagem na moderação de conteúdo. A IA generativa é notoriamente difícil de controlar, e os próprios desenvolvedores não sabem por que os modelos geram as imagens e os textos. Em vários casos, os modelos de IA generativa geraram conteúdos questionáveis e tóxico.
“Tudo isso se resume ao que foi treinado”, diz Greenfield. Ele diz que o modelo da Adobe nunca viu uma foto de Joe Biden ou Donald Trump, por exemplo, e não pode ser persuadido a gerar desinformação política. Os dados de treinamento do modelo de IA não têm conteúdo de notícias ou pessoas famosas. Ele não foi treinado com nenhum material protegido por direitos autorais, como imagens do Mickey Mouse.
“Ele simplesmente não entende o que é o conceito”, diz Greenfield.
A Adobe também aplica moderação automatizada de conteúdo no momento da criação, para verificar se as criações do Firefly são seguras para uso profissional. O modelo está proibido de criar histórias de notícias ou imagens violentas. Alguns nomes de artistas também estão bloqueados. O conteúdo gerado pelo Firefly vem com rótulos que indicam que ele foi criado usando IA e o histórico de edição da imagem.
Durante um ano eleitoral crítico, a necessidade de saber quem criou um conteúdo, e como, é especialmente importante. A Adobe tem sido uma grande defensora de rótulos nos conteúdos de IA, que indiquem sua origem e quem os criou.
A empresa iniciou a Content Authenticity Initiative, uma associação que promove o uso de rótulos que informam se o conteúdo é gerado por IA ou não, juntamente do New York Times e o Twitter (agora X). A iniciativa agora tem mais de 2.500 membros. Ela também faz parte do desenvolvimento do C2PA, um rótulo padrão do setor que mostra de onde veio um conteúdo e como ele foi criado.
“Há muito tempo precisamos de uma melhor educação em alfabetização midiática e de ferramentas que apoiem a capacidade das pessoas de validar qualquer conteúdo que alegue representar a realidade”, diz Greenfield.
“A abordagem da Adobe traz luz à necessidade das empresas de IA pensarem profundamente sobre a moderação de conteúdo”, diz Claire Leibowicz, diretora de IA e integridade de mídia da organização sem fins lucrativos, Partnership on AI.
“O posicionamento da Adobe em relação à IA generativa atende a essas metas sociais, combatendo a desinformação e promovendo metas comerciais, como a preservação da autonomia e da atribuição do criador”, acrescenta Leibowicz.
“A missão comercial da Adobe não é evitar a desinformação, por si só”, diz ela. “É capacitar os criadores. Não é uma união bem elegante de missão e tática, para poder matar dois coelhos com uma cajadada só?”
Wadhwani concorda. A empresa diz que os recursos do Firefly estão entre os mais populares, e 90% dos usuários do aplicativo da Web do Firefly são clientes totalmente novos para a Adobe.
“Acho que nossa abordagem foi definitivamente boa para os negócios”, diz Wadhwani.
Como a Adobe enxerga isso para o Brasil?
A MIT Technology Review Brasil ouviu executivos brasileiros da Adobe para entender como todo esse contexto se encaixa nos cenários desenhados no país. Federico Grosso, presidente da Adobe para América Latina, reforçou que empresas de todos os segmentos estão se adequando ao surgimento da nova tecnologia e testando formas de utilizá-la.
“Do meu lado eu gostaria de mencionar o interesse crescente de todos os clientes na região com relação a aplicam de AI em caso de uso específico. Não mencionaria clientes por questões de confidencialidades, mas ressaltaria que em verticais como FSI, Telco, Retail, Educação e Saúde a tecnologia de AI generativa, aplicada a content supply chain e criação de conteúdo tem tido um fortíssimo interesse. Saiu do nível conversas, para passara definição de escopo em casos de uso.”
Já Douglas Montalvao, LATAM Region Director de Experience Cloud, aponta o quanto a IA generativa contribui para a personalização dos serviços.
“Independentemente da Indústria, o nível de comoditização dos produtos e a transparência em preços é muito alta, então, competir somente nesses dois pilares é cada vez mais difícil. Uma das respostas que as empresas estão buscando é a personalização em escala na relação com seus consumidores. Porém, com a expansão do número de canais, a velocidade nas interações digitais e as altas expectativas dos clientes, sem AI generativa e tecnologias que permitem escalabilidade, isso nunca seria possível.”
—
Sobre o autor
Por Melissa Heikkilä, repórter sênior da MIT Technology Review, cobrindo assuntos ligados à Inteligência Artificial e como ela está mudando nossa sociedade.