Um grupo de 10 empresas, incluindo a OpenAI, TikTok, Adobe, BBC e o aplicativo de namoro Bumble, assinaram um novo conjunto de diretrizes sobre como desenvolver e compartilhar de forma responsável conteúdo gerado por Inteligência Artificial (IA).
As recomendações do documento orientam tanto os desenvolvedores da tecnologia, como a OpenAI, quanto aos criadores e distribuidores de mídia sintética (isto é, mídia gerada ou manipulada digitalmente), como a BBC e o TikTok, para eles serem mais transparentes sobre o que a tecnologia pode ou não fazer, e que revelem quando as pessoas podem estar interagindo com esse tipo de conteúdo.
As recomendações voluntárias foram elaboradas pela Partnership on AI (PAI, em inglês), uma organização sem fins lucrativos de pesquisa em IA, que presta consultoria para mais de 50 organizações. Dentre os parceiros da PAI estão grandes empresas de tecnologia, bem como organizações acadêmicas, ONGs e órgãos da imprensa. As 10 primeiras empresas a se comprometer com a orientação são Adobe, BBC, CBC/Radio-Canada, Bumble, OpenAI, TikTok, Witness e as startups de mídia gerada por IA, a Synthesia, D-ID e Respeecher.
“Queremos garantir que a mídia sintética não seja usada para prejudicar, enfraquecer ou privar os direitos das pessoas, mas sim para apoiar a criatividade, promover o compartilhamento de conhecimento e estimular comentários”, diz Claire Leibowicz, diretora de IA e integridade de mídia da PAI.
Um dos elementos mais importantes das diretrizes é um pacto das empresas para incluir e pesquisar maneiras de informar aos usuários quando eles estão interagindo com algum conteúdo gerado pela IA. Isso pode incluir marcas d’água ou avisos de isenção de responsabilidade, ou elementos rastreáveis nos dados ou nos metadados usados nos treinamentos de um modelo de IA.
No entanto, a regulamentação que tenta conter possíveis danos relacionados à IA generativa ainda está atrasada. A União Europeia, por exemplo, está tentando incluir IA generativa em sua próxima lei de IA, conhecida como AI Act (Lei da IA europeia). Isso significa que a leia poderia incluir elementos como revelar quando as pessoas estão interagindo com deepfakes e obrigar as empresas a atender determinados requisitos de transparência.
Embora a IA generativa seja uma terra sem lei no momento, diz Henry Ajder, especialista em IA generativa que contribuiu com as diretrizes, ele espera que elas ofereçam às empresas os principais itens que precisam observar ao incorporar a tecnologia em seus negócios.
Aumentar a conscientização e iniciar uma conversa sobre maneiras responsáveis de pensar sobre mídia gerada por IA é importante, diz Hany Farid, professor da Universidade da Califórnia, Berkeley (EUA), que pesquisa mídia sintética e deepfakes.
Mas “diretrizes e princípios voluntários raramente funcionam”, acrescenta.
Embora empresas como a OpenAI possam estar tentando colocar limitações nas tecnologias que criam, como o ChatGPT e o DALL-E, outras organizações que não fazem parte do acordo, como a Stability.AI, a startup que desenvolveu o Stable Diffusion, um modelo de IA de código aberto gerador de imagens, podem permitir que as pessoas gerem imagens (e conteúdos) inapropriadas e deepfakes.
“Se realmente queremos abordar essas questões, temos que levar elas a sério”, diz Farid. Por exemplo, ele quer que os provedores de serviços em nuvem e as lojas de aplicativos, como as operadas pela Amazon, Microsoft, Google e Apple, que fazem parte do PAI, proíbam os serviços que permitem que as pessoas usem a tecnologia deepfake com a intenção de criar imagens de relações sexuais não consensuais. As marcas d’água em todo o conteúdo gerado por IA também devem ser obrigatórias, não voluntárias, diz ele.
Outra questão importante é como os próprios sistemas de IA poderiam se tornar mais responsáveis, diz Ilke Demir, pesquisador sênior da Intel que lidera o trabalho da empresa no desenvolvimento responsável da IA generativa. Isso pode envolver o fornecimento de mais informações sobre como o modelo de IA foi treinado, quais dados foram inseridos nele ao longo do processo e se há algum viés nos modelos de IA generativos.
Não há menção nas diretrizes sobre a garantia de ausência de conteúdo tóxico no conjunto de dados utilizados nos modelos generativos de IA. “Essa é uma das maneiras mais significativas de prejudicar esses sistemas”, diz Daniel Leufer, analista sênior de políticas do grupo de direitos digitais, o Access Now.
As diretrizes incluem uma lista de danos que essas empresas desejam evitar, como fraude, assédio e desinformação. Mas um modelo generativo de IA que sempre cria pessoas brancas também está funcionando de forma errada, e isso não está atualmente listado lá, acrescenta Demir.
Farid levanta uma questão mais fundamental. Uma vez que as empresas reconhecem que a tecnologia pode levar a sérios danos e oferecem maneiras de mitigá-los, “por que não estão se perguntando: ‘Devemos desenvolver esse tipo de tecnologia em primeiro lugar?’”