Recentemente, escrevi uma pequena história sobre um projeto apoiado por algumas das principais empresas de tecnologia e mídia que tentam ajudar a identificar o conteúdo criado ou alterado por IA.
Com o boom de textos, imagens e vídeos gerados por Inteligência Artificial, tanto os legisladores quanto os usuários comuns da Internet têm exigido mais transparência. Embora possa parecer um pedido muito razoável simplesmente adicionar um rótulo (o que é), na verdade não é fácil, e as soluções existentes, como a detecção e a marca d’água com tecnologia de IA, têm algumas armadilhas sérias.
Como escreveu minha colega Melissa Heikkilä, a maioria das soluções técnicas atuais “não tem chance contra a última geração de modelos de linguagem de IA”. No entanto, a corrida para rotular e detectar o conteúdo gerado por IA está em andamento.
É aí que entra esse protocolo. Iniciado em 2021, o C2PA (nome do grupo que o criou, a Coalition for Content Provenance and Authenticity) é um conjunto de novos padrões técnicos e códigos disponíveis gratuitamente que rotulam com segurança o conteúdo com informações que esclarecem sua origem.
Isso significa que uma imagem, por exemplo, é marcada com informações pelo dispositivo de onde foi originada (como uma câmera de telefone), por qualquer ferramenta de edição (como o Photoshop) e, por fim, pela plataforma de mídia social para a qual foi carregada. Com o tempo, essas informações criam uma espécie de histórico, que é registrado.
A tecnologia em si — e as maneiras pelas quais a C2PA é mais segura do que outras alternativas de rotulagem de IA — é muito legal, embora um pouco complicada. Falo mais sobre ela em meu artigo, mas talvez seja mais fácil pensar nela como um rótulo nutricional (que é a analogia preferida da maioria das pessoas com quem conversei). Você pode ver um exemplo de um vídeo deepfake aqui, com o rótulo criado pela Truepic, um membro fundador da C2PA, com a Revel AI.
“A ideia de procedência é marcar o conteúdo de forma interoperável e inviolável para que ele possa viajar pela Internet com essa transparência, com esse rótulo nutricional”, diz Mounir Ibrahim, vice-presidente de assuntos públicos da Truepic.
Quando foi lançada, a C2PA foi apoiada por um punhado de empresas importantes, incluindo a Adobe e a Microsoft, mas, nos últimos seis meses, seu número de membros aumentou 56%. Nesta semana, a grande plataforma de mídia Shutterstock anunciou que usaria a C2PA para rotular toda a sua mídia gerada por IA.
Ele se baseia em uma abordagem de aceitação, de modo que os grupos que desejam verificar e divulgar a origem do conteúdo, como um jornal ou um anunciante, optarão por adicionar as credenciais a uma mídia.
Um dos líderes do projeto, Andy Parsons, que trabalha para a Adobe, atribui o novo interesse e a urgência em torno da C2PA à proliferação da IA generativa e à expectativa de legislação, tanto nos Estados Unidos quanto na União Europeia, que exigirá novos níveis de transparência.
A visão é grandiosa — as pessoas envolvidas admitiram para mim que o sucesso real aqui depende de uma adoção ampla, se não universal. Eles disseram que esperam que todas as principais empresas de conteúdo adotem o padrão.
Para isso, diz Ibrahim, a usabilidade é fundamental: “Você quer ter certeza de que, independentemente de onde for na Internet, ela será lida e ingerida da mesma forma, assim como a criptografia SSL. É assim que você dimensiona um ecossistema on-line mais transparente.”
Esse pode ser um desenvolvimento crítico à medida que entramos na temporada eleitoral dos EUA, quando todos os olhos estarão atentos à desinformação gerada por IA. Os pesquisadores do projeto afirmam que estão correndo para liberar novas funcionalidades e cortar mais plataformas de mídia social antes do ataque esperado.
Atualmente, a C2PA trabalha principalmente com imagens e vídeos, embora os membros digam que estão trabalhando em maneiras de lidar com conteúdo baseado em texto. No artigo, falo sobre algumas das outras deficiências do protocolo, mas o que é realmente importante entender é que, mesmo quando o uso de IA é divulgado, isso pode não conter os danos da desinformação gerada por máquinas. As plataformas de mídia social ainda precisarão decidir se manterão essas informações em seus sites e os usuários terão que decidir por si mesmos se confiarão e compartilharão o conteúdo.
Isso lembra um pouco as iniciativas das plataformas de tecnologia nos últimos anos para rotular a desinformação. O Facebook rotulou mais de 180 milhões de postagens como desinformação antes da eleição de 2020 e claramente ainda havia problemas consideráveis. E, embora a C2PA não pretenda atribuir indicadores de precisão às publicações, está claro que apenas fornecer mais informações sobre o conteúdo não pode necessariamente nos salvar de nós mesmos.
O que estou lendo:
- Publicamos um roteiro prático que descreve como a IA pode impactar a política doméstica e quais marcos devem ser observados. É fascinante pensar na IA submetendo ou contribuindo para um testemunho público, por exemplo.
- Vittoria Elliott escreveu uma matéria muito oportuna sobre como a marca d’água, que também tem o objetivo de trazer transparência ao conteúdo gerado por IA, não é suficiente para gerenciar a ameaça da desinformação. Ela explica que os especialistas dizem que a Casa Branca precisa fazer mais do que apenas promover acordos voluntários sobre IA.
- E aqui está outra história que achei interessante sobre a corrida para desenvolver uma tecnologia de marca d’água melhor.
- Por falar em Inteligência Artificial… nossa repórter de IA, Melissa, também escreveu sobre uma nova ferramenta desenvolvida por pesquisadores do MIT que pode ajudar a evitar que fotos sejam manipuladas por IA. Isso pode ajudar a evitar problemas como pornografia gerada por IA que usa fotos reais de mulheres inconscientes.
- O TikTok está mergulhando ainda mais no comércio eletrônico. Os novos recursos do aplicativo permitem que os usuários comprem produtos diretamente dos influenciadores, levando alguns a reclamar de um feed que parece uma enxurrada de conteúdo patrocinado. É um desenvolvimento ligeiramente alarmante na economia dos influenciadores e destaca o poder de venda das plataformas de mídia social.
O que aprendi esta semana
Os pesquisadores ainda estão tentando entender como as plataformas de mídia social e seus algoritmos afetam nossas crenças políticas e o discurso cívico. Esta semana, quatro novos estudos sobre o impacto do Facebook e do Instagram na política dos usuários durante a eleição de 2020 mostraram que os efeitos são bastante complicados. Os estudos, publicados pela Universidade do Texas, Universidade de Nova York, Princeton e outras instituições, descobriram que, embora as notícias que as pessoas leem nas plataformas apresentem um alto grau de segregação por opiniões políticas, a remoção do conteúdo compartilhado novamente dos feeds no Facebook não alterou as crenças políticas.
O tamanho dos estudos está fazendo deles uma espécie de grande negócio no mundo acadêmico esta semana, mas a pesquisa está sendo examinada por sua estreita colaboração com a Meta.