A OpenAI gastou US$ 1,76 milhão em lobby governamental em 2024, e US$ 510.000 somente nos últimos três meses deste ano, de acordo com uma nova divulgação registrada em 22 de janeiro – um salto significativo em relação a 2023, quando a empresa gastou apenas US$ 260.000 no Capitólio.
A organização também revelou uma nova lobista interna, Meghan Dorn, que trabalhou por cinco anos para o senador Lindsey Graham e começou a trabalhar na OpenAI em outubro. O registro também mostra a atividade relacionada a duas novas leis nos últimos meses do ano: a AI Advancement and Reliability Act da Câmara, que criaria um centro governamental para pesquisa de IA, e a Future of Artificial Intelligence Innovation Act do Senado, que criaria testes de referência compartilhados para modelos de IA.
A OpenAI não respondeu a perguntas sobre seus esforços de lobby.
No entanto a divulgação é um sinal claro (e talvez o mais importante) da chegada da empresa como um ator político, já que seu primeiro ano de lobby sério termina e o controle republicano de Washington começa. Embora os gastos da OpenAI com lobby ainda sejam insignificantes em relação aos de seus pares – a Meta está no topo da lista de gastadores da Big Tech, com mais de US$ 24 milhões em 2024 –, o aumento ocorre no momento em que ela e outras empresas de IA ajudaram a redesenhar o formato da política de IA.
Nos últimos anos, a política de IA tem sido uma espécie de resposta aos riscos apresentados por deepfakes e desinformação. Porém, no último ano, as empresas de IA começaram a posicionar o sucesso da tecnologia como fundamental para a segurança nacional e a competitividade americana, argumentando que o governo deve, portanto, apoiar o crescimento do setor. Como resultado, a OpenAI e outras empresas agora parecem estar preparadas para obter acesso a energia mais barata, contratos lucrativos de segurança nacional e um ambiente regulatório mais frouxo que não se preocupa com as minúcias da segurança da IA.
Embora os grandes players pareçam mais ou menos alinhados nessa grande narrativa, as divisões confusas em outras questões ainda ameaçam romper a harmonia exibida na posse do presidente Trump nesta semana.
A regulamentação da IA realmente começou a sério após o lançamento do ChatGPT em novembro de 2022. Naquele momento, “grande parte da conversa era sobre responsabilidade”, diz Liana Keesing, gerente de campanhas para reforma tecnológica da Issue One, uma organização sem fins lucrativos que rastreia a influência da Big Tech.
As empresas foram questionadas sobre o que fariam com relação às imagens deepfake sexualmente abusivas e à desinformação eleitoral. “Sam Altman fez um ótimo trabalho ao chegar e se apresentar desde o início como um defensor desse processo”, diz Keesing.
A OpenAI iniciou seu esforço oficial de lobby por volta de outubro de 2023, contratando Chan Park – um ex-conselheiro do Comitê Judiciário do Senado e lobista da Microsoft – para liderar o esforço. Os legisladores –, especialmente o então líder da maioria no Senado, Chuck Schumer –, manifestaram seu desejo de reduzir esses danos específicos; a OpenAI contratou o ex-consultor jurídico de Schumer, Reginald Babin, como lobista, de acordo com dados da OpenSecrets. No verão passado, a empresa contratou o veterano agente político Chris Lehane como seu chefe de política global.
As divulgações anteriores da OpenAI confirmam que os lobistas da empresa dedicaram grande parte do ano passado em legislações como a No Fakes Act e a Protect Elections from Deceptive AI Act. Os projetos não se transformaram em lei. Mas, com o passar do ano, as metas regulatórias das empresas de IA começaram a mudar. “Uma das maiores mudanças que vimos”, diz Keesing, “é que elas realmente começaram a se concentrar em energia”.
Em setembro, Altman e líderes da Nvidia, Anthropic e Google, visitaram a Casa Branca e apresentaram a visão de que a competitividade dos EUA em IA dependerá de infraestrutura de energia subsidiada para treinar os melhores modelos. Altman propôs ao governo Biden a construção de vários data centers de cinco gigawatts, que consumiriam, cada um, tanta eletricidade quanto a cidade de Nova York.
Na mesma época, empresas como a Meta e a Microsoft começaram a dizer que a energia nuclear fornecerá o caminho para o avanço da IA, anunciando acordos com o objetivo de ativar novas usinas.
Parece provável que a equipe de políticas da OpenAI já estivesse planejando essa mudança específica. Em abril, a empresa contratou o lobista Matthew Rimkunas, que trabalhou para a Breakthrough Energies, empresa de energia sustentável de Bill Gates, e, antes disso, passou 16 anos trabalhando para o senador Graham; o republicano da Carolina do Sul atua no subcomitê do Senado que gerencia a segurança nuclear.
As emissões da IA estão prestes a aumentar ainda mais
As emissões dos data centers triplicaram desde 2018. À medida em que modelos de IA mais complexos, como o Sora da OpenAI, forem amplamente lançados, esses números provavelmente aumentarão.
Essa nova corrida energética da IA é inseparável do posicionamento da IA como essencial para a segurança nacional e a competitividade dos EUA com a China. A OpenAI expôs sua posição em uma postagem de blog em outubro, escrevendo: “A IA é uma tecnologia transformacional que pode ser usada para fortalecer os valores democráticos ou para prejudicá-los. É por isso que acreditamos que as democracias devem continuar a assumir a liderança no desenvolvimento da IA”. Em dezembro, a empresa deu um passo adiante e reverteu sua política contra o trabalho com os militares, anunciando que desenvolveria modelos de IA com a empresa de tecnologia de defesa Anduril. A meta, de acordo com a OpenAI, é ajudar a derrubar drones em torno de bases militares.
Naquele mesmo mês, Sam Altman disse em uma entrevista ao The Free Press que o governo Biden “não foi tão eficaz” na condução da IA: “As coisas que eu acho que deveriam ter sido as prioridades do governo, e espero que sejam as prioridades do próximo governo, são a construção de uma infraestrutura maciça de IA nos EUA, ter uma cadeia de suprimentos nos EUA, coisas assim.”
Essa caracterização não leva em conta o CHIPS Act, um estímulo de US$ 52 bilhões para o setor doméstico de chips que, pelo menos no papel, está alinhado com a visão de Altman. (Ela também precedeu uma ordem executiva que Biden emitiu na semana passada para arrendar terras federais visando abrigar o tipo de data center em escala de gigawatts que Altman estava pedindo).
Intencionalmente ou não, a postura de Altman o alinhou com a crescente camaradagem entre o presidente Trump e o Vale do Silício. Mark Zuckerberg, Elon Musk, Jeff Bezos e Sundar Pichai sentaram-se diretamente atrás da família de Trump na cerimônia de posse na segunda-feira, e Altman também compareceu. Muitos deles também fizeram doações consideráveis para o fundo inaugural de Trump, com Altman contribuindo pessoalmente com US$ 1 milhão.
É fácil ver a posse como uma evidência de que esses líderes de tecnologia estão alinhados entre si e com outros participantes da órbita de Trump. Mas ainda há algumas linhas divisórias importantes que vale a pena observar. Em especial, há o confronto sobre os vistos H-1B, que permitem que muitos pesquisadores de IA não cidadãos dos EUA trabalhem no país. Musk e Vivek Ramaswamy (que, a partir desta semana, não faz mais parte do chamado Departamento de Eficiência Governamental) têm pressionado para que esse programa de vistos seja ampliado. Isso provocou reações contrárias de alguns aliados do governo Trump, talvez principalmente de Steve Bannon.
Outra linha de falha é a batalha entre IA de código aberto e fechado. O Google e a OpenAI impedem que qualquer pessoa saiba exatamente o que há em seus modelos mais poderosos, muitas vezes argumentando que isso evita que eles sejam usados indevidamente por pessoas mal-intencionadas. Musk processou a OpenAI e a Microsoft por causa dessa questão, alegando que os modelos de código fechado são contrários à estrutura híbrida sem fins lucrativos da OpenAI. A Meta, cujo modelo Llama é de código aberto, recentemente ficou do lado de Musk nesse processo. O capitalista de risco e aliado de Trump, Marc Andreessen, fez eco a essas críticas à OpenAI no X poucas horas após a posse. (Andreessen também disse que o fato de tornar os modelos de IA de código aberto “torna desnecessárias as regulamentações autoritárias”).
Por fim, há as batalhas sobre preconceito e liberdade de expressão. As abordagens muito diferentes que as empresas de mídia social adotaram para moderar o conteúdo a – incluindo o recente anúncio do Meta de que encerraria seu programa de verificação de fatos nos EUA – levantam questões sobre se a forma como os modelos de IA são moderados também continuará a se fragmentar. Musk lamentou o que ele chama de “wokeness” de muitos dos principais modelos, e Andreessen disse na terça-feira que “os LLMs chineses são muito menos censurados do que os LLMs americanos” (embora isso não seja bem verdade, já que muitos modelos de IA chineses têm censura imposta pelo governo, que proíbe determinados tópicos). Altman foi mais ambíguo: “Duas pessoas jamais concordarão que um sistema é perfeitamente imparcial”, disse ele ao The Free Press.
É apenas o início de uma nova era em Washington, mas a Casa Branca tem estado ocupada. Ela revogou muitas ordens executivas assinadas pelo presidente Biden, incluindo a ordem histórica sobre IA que impôs regras para o uso da tecnologia pelo governo (embora pareça ter mantido a ordem de Biden sobre o aluguel de terrenos para mais data centers). Altman também está ocupado. A OpenAI, a Oracle e ao SoftBank supostamente planejam gastar até US$ 500 bilhões em uma joint venture para novos data centers; o projeto foi anunciado pelo presidente Trump, com Altman ao lado. E, de acordo com a Axios, Altman também participará de uma reunião a portas fechadas com funcionários do governo em 30 de janeiro, supostamente sobre o desenvolvimento de um novo e poderoso agente de IA.