Guia preliminar para a criação de políticas voltadas para a Inteligência Artificial Generativa
Governança

Guia preliminar para a criação de políticas voltadas para a Inteligência Artificial Generativa

Como os legisladores estão pensando sobre os riscos da última revolução tecnológica

Em março, eu conversei com uma professora de política em Washington (EUA), que me disse que alunos e colegas da área estão querendo saber mais sobre o GPT-4 e a Inteligência Artificial (IA) generativa: o que eles deveriam estar lendo? Até que ponto devem se preocupar? 

Ela queria saber se eu tinha alguma sugestão e perguntou a minha opinião sobre todos os novos avanços e o que eu achava que eles significavam para os legisladores. Passei alguns dias pensando, lendo e conversando com especialistas sobre isso, e minha resposta se transformou neste texto. 

Embora o GPT-4 seja o modelo de referência, ele é mais um dos muitos lançamentos de maior destaque de IA generativa nos últimos meses de uma das principais empresas da área: outras organizações como o Google, a Nvidia, Adobe e Baidu anunciaram seus próprios projetos. Basicamente, todo mundo está falando sobre IA generativa. E embora a tecnologia não seja nova, ainda levarão meses, senão anos, para que suas implicações políticas sejam compreendidas. 

O GPT-4, lançado pela OpenAI em meados de março, é um grande modelo de linguagem multimodal que usa deep learning para prever palavras em uma frase. Ele gera um texto surpreendentemente fluente e pode reagir a imagens, bem como a instruções escritas. Para clientes pagantes, o GPT-4 potencializará o ChatGPT, que já foi incorporado a aplicações comerciais. 

A mais nova versão causou grande impacto, e Bill Gates a chamou de “revolucionária” em uma carta escrita no fim de março. No entanto, a OpenAI também foi criticada por falta de transparência sobre como o modelo foi treinado e avaliado no que diz respeito ao enviesamento da ferramenta. 

Apesar de toda a empolgação em torno do assunto, a IA generativa apresenta riscos significativos. A internet, um repositório tóxico de conteúdo, é usada extensivamente para treinar esses modelos, o que muitas vezes gera argumentos e materiais racistas e sexistas. Eles também inventam coisas com frequência e as declaram com confiança convincente. Do ponto de vista da desinformação, isto pode ser um pesadelo, e pode tornar golpes mais persuasivos e prolíficos. 

As ferramentas generativas de IA também são ameaças potenciais à segurança e à privacidade das pessoas, além de terem pouca consideração pelas leis de direitos autorais. Como resultado, empresas que usam IA generativa que roubaram o trabalho de terceiros já estão sendo processadas. 

Alex Engler, pesquisador em estudos de governança da Brookings Institution, refletiu como os formuladores de políticas deveriam pensar sobre isso e identificou dois tipos principais de riscos que eles deveriam se atentar: aos danos decorrentes pelo uso malicioso e danos causados pelo uso comercial. Usos maliciosos da tecnologia, como práticas voltadas para a desinformação, a automatização do discurso de ódio e fraude, “têm muito em comum no que diz respeito a moderação de conteúdo”, disse Engler em um e-mail, “e a melhor maneira de lidar com esses riscos é provavelmente por meio da governança da plataforma”. (Se você quiser saber mais sobre isso, recomendo ouvir a este episódio do podcast Sunday Show, da Tech Policy Press, onde Justin Hendrix, editor e palestrante sobre tecnologia, mídia e democracia, fala com uma comissão de especialistas sobre se os sistemas generativos de IA deveriam ser regulados de forma semelhante aos algoritmos de pesquisa e recomendação. (Dica: Seção 230.) 

Até agora, as discussões políticas sobre IA generativa se concentraram nos riscos do uso comercial da tecnologia, como programação de software ou publicidade exagerada. E nesse contexto, o governo dos EUA adotou medidas tímidas, mas notáveis, principalmente por meio da Comissão Federal de Comércio (FTC, pela sigla em inglês). Por exemplo, em fevereiro, a FTC emitiu um comunicado de advertência às empresas instando-as a não fazer alegações sobre capacidades técnicas que não possam comprovar, como exagerar o que a IA pode fazer. No final de março, publicaram no blog de negócios da comissão um artigo onde foram ainda mais enfáticos sobre os riscos que as empresas devem considerar ao usar IA generativa. 

“Se você desenvolver ou oferecer uma mídia sintética ou um produto de IA generativo, considere maneiras razoavelmente previsíveis, e muitas vezes óbvias, de como isso pode ser usado indevidamente para fraude ou causar outros danos logo na fase inicial de desenvolvimento e nas posteriores. Então, pergunte a si mesmo se esses riscos são altos o suficiente para que você não deva disponibilizar o produto”, diz a postagem do blog. 

O Escritório de Direitos Autorais dos EUA também lançou uma nova iniciativa destinada a lidar com as espinhosas questões políticas sobre IA, atribuição e propriedade intelectual. 

Enquanto isso, a União Europeia (UE) mantém-se fiel à sua reputação de líder mundial em política tecnológica. No início deste ano, a jornalista Melissa Heikkilä escreveu sobre as iniciativas da UE para tentar aprovar a Lei da IA europeia. A lei consiste em um conjunto de regras que impediria as empresas de lançarem modelos sem divulgar como ocorre seu funcionamento interno, que é exatamente a crítica de alguns especialistas que acusam a OpenAI e o GPT-4. 

A UE pretende separar os usos de alto risco da IA, como contratação, aplicações legais ou financeiras, dos usos de menor risco, como videogames e filtros anti-spam, e exigir mais transparência em relação aos usos mais sensíveis e sigilosos. A OpenAI concordou com algumas das preocupações sobre a rapidez da adoção dos modelos. Na verdade, o próprio CEO da empresa, Sam Altman, disse à ABC News que compartilha muitos dos mesmos medos. No entanto, a organização ainda não está divulgando dados importantes sobre o GPT-4. 

Para os especialistas políticos em Washington (EUA), Bruxelas (Bélgica), Londres (Reino Unido) e escritórios em todo o mundo, é importante entender que a IA generativa veio para ficar. Sim, há toda uma grande empolgação sobre o assunto, mas os avanços recentes na IA são tão reais e importantes quanto os riscos que representam. 

O que mais estou lendo por aí 

No final de março, o Congresso dos Estados Unidos convocou Shou Zi Chew, CEO da TikTok, para uma audiência sobre questões de privacidade e segurança relacionadas ao popular aplicativo de rede social. Sua vinda ocorreu depois que o governo Biden ameaçou uma proibição nacional do TikTok se sua empresa-mãe, a ByteDance, não vendesse a maioria de suas ações. 

Houve muitas manchetes, a maioria usando um trocadilho sobre o período da situação, e a audiência do congresso expôs a extensão da nova guerra fria tecnológica entre os EUA e a China. Para muitos, a audiência foi importante e decepcionante, com alguns legisladores demonstrando pouca compreensão técnica e hipocrisia sobre como as empresas chinesas lidam com a questão de privacidade quando as americanas coletam e comercializam dados da mesma maneira. 

O episódio também revelou o quão profundamente os legisladores americanos desconfiam da tecnologia chinesa. Aqui estão algumas das opiniões mais ácidas e artigos úteis para se atualizar sobre o assunto: 

O que aprendi no final de março 

De acordo com um estudo de uma equipe do Laboratório de Polarização e Mudança Social de Stanford (EUA), a IA consegue persuadir as pessoas a mudar de ideia sobre questões políticas polêmicas, como proibição de armas de assalto e licença parental remunerada. Os pesquisadores compararam as opiniões políticas das pessoas sobre um tópico antes e depois de ler um argumento gerado por IA e descobriram que esses conteúdos podem ser tão eficazes para persuadir os leitores quanto os escritos por humanos: “A IA foi consistentemente classificada como mais factual e lógica, menos raivosa, e menos dependente da narrativa como uma técnica persuasiva”. 

As equipes apontam preocupações sobre o uso de IA generativa em um contexto político, como campanhas de pressão ou em debates e discussões online. (Para saber mais sobre o uso de IA generativa na política, leia este artigo de Nathan Sanders e Bruce Schneier.) 

Último vídeo

Nossos tópicos