Anthropic temia compromisso da OpenAI com o Pentágono
Governança

Anthropic temia compromisso da OpenAI com o Pentágono

Empresa defendeu limites morais, enquanto rival se contentou com barreiras legais mais brandas e, agora, tende a se beneficiar

Em 28 de fevereiro, a OpenAI anunciou que havia fechado um acordo que vai permitir aos militares dos Estados Unidos usar tecnologias em ambientes sigilosos. O CEO, Sam Altman, afirmou que as negociações, iniciadas apenas depois da reação pública do Pentágono à Anthropic, foram “definitivamente apressadas”

Mini Banner - Assine a MIT Technology Review

A OpenAI fez anúncios nos quais se esforçou bastante em dizer que não havia cedido a ponto de permitir que o Pentágono fizesse o que quisesse com sua tecnologia. Em uma postagem no blog da própria empresa, ela explica que o acordo protegia contra o uso para armas autônomas e vigilância doméstica em massa. Altman disse que não aceitou simplesmente os mesmos termos que a Anthropic recusou.

Você poderia ler isso como se a OpenAI tivesse conquistado tanto o contrato quanto a superioridade moral, mas, nas entrelinhas e no juridiquês, algo mais fica claro: a Anthropic buscou uma abordagem moral que lhe rendeu muitos apoiadores, mas fracassou, enquanto a OpenAI teve uma abordagem pragmática e legal que, no fim das contas, é mais branda com o Pentágono.

Ainda não está claro se a empresa do ChatGPT consegue incorporar as precauções de segurança que promete, enquanto os militares lançam às pressas uma estratégia de Inteligência Artificial politizada durante ataques ao Irã. Ou ainda, se o acordo será visto como suficientemente bom por funcionários que queriam que a empresa adotasse uma posição mais dura. Andar nessa corda bamba será complicado. A OpenAI não respondeu imediatamente aos pedidos de informações adicionais sobre o acordo.

Mas o diabo também mora nos detalhes. A razão pela qual a OpenAI conseguiu fechar um acordo, quando a Anthropic não conseguiu, teve menos a ver com limites, disse Altman, e mais com a abordagem. “A Anthropic parecia mais focada em proibições específicas no contrato, em vez de citar leis aplicáveis com as quais nos sentimos confortáveis”, escreveu.

A OpenAI afirma que a disposição de trabalhar com o Pentágono está relacionada à suposição de que o governo não vai violar a lei. A empresa, que compartilhou um trecho limitado do contrato, cita várias leis e políticas relacionadas a armas autônomas e vigilância. Elas vão de algo tão específico (como uma diretriz de 2023 do Pentágono que não proíbe armas autônomas, mas emite orientações para projeto e teste), a algo tão amplo quanto a Quarta Emenda, que tem amparado proteções para os americanos contra vigilância em massa.

No entanto, o trecho publicado “não dá à OpenAI um direito autônomo, no estilo Anthropic, de proibir usos governamentais que, de outra forma, seriam legais”, escreveu Jessica Tillipman, vice-reitora associada de Estudos em Direito de Compras Governamentais da Faculdade de Direito da George Washington University. O texto simplesmente afirma que o Pentágono não pode usar a tecnologia da OpenAI para violar nenhuma dessas leis e políticas tal como elas estão estabelecidas hoje.

A própria razão pela qual a Anthropic conquistou tantos apoiadores na disputa, incluindo alguns dos próprios funcionários da OpenAI, é não acreditar que essas regras sejam boas o bastante para impedir a criação de armas autônomas habilitadas por IA ou de vigilância em massa. Além disso, a suposição de que as agências federais não vão violar a lei oferece pouca garantia a qualquer pessoa que se lembre de que as práticas de vigilância expostas por Edward Snowden haviam sido consideradas legais por órgãos internos. Elas só foram declaradas ilegais depois de longas disputas, sem mencionar as muitas táticas permitidas pela lei atual que a tecnologia poderia ampliar. Essencialmente, acabamos de volta ao ponto de partida: permitir que o Pentágono utilize a IA da empresa para qualquer uso legal.

A OpenAI poderia dizer, como escreveu o chefe de Parcerias de Segurança Nacional, que, se você acredita que o governo não seguirá a lei, então também não deveria confiar que ele honraria as linhas vermelhas que a Anthropic estava propondo. Mas isso não é um argumento contra estabelecê-las. Aplicação imperfeita não torna restrições sem sentido e os termos contratuais ainda moldam comportamento, supervisão e consequências políticas.

A empresa apresenta uma segunda linha de defesa. Diz que mantém controle sobre as regras de segurança que regem seus modelos e que não dará aos militares uma versão de IA despojada desses controles de segurança. “Podemos incorporar nossas linhas vermelhas, sem vigilância em massa e sem direcionamento de sistemas de armas sem envolvimento humano, diretamente ao comportamento do modelo”, escreveu Boaz Barak, funcionário da OpenAI a quem Altman delegou falar sobre o tema no X.

Mas a gigante da tecnologia não especifica como as regras de segurança para os militares diferem daquelas para usuários comuns. A aplicação também nunca é perfeita e é especialmente improvável que seja quando a OpenAI estiver implementando essas proteções em um ambiente sigiloso pela primeira vez. A expectativa é de que ela faça isso em apenas seis meses.

Há outra questão por trás de tudo isso: deveria caber às empresas de tecnologia proibir coisas que são legais, mas que elas consideram moralmente condenáveis? O governo certamente considerou inaceitável a disposição da Anthropic de desempenhar esse papel. Oito horas antes de os Estados Unidos lançarem ataques em Teerã, o secretário de Defesa, Pete Hegseth, fez declarações duras no X. “A Anthropic deu uma aula magna de arrogância e traição”, escreveu. Além disso, ele ecoou a ordem do presidente Trump para que o governo deixasse de trabalhar com a empresa, depois que ela buscou impedir que seu modelo Claude fosse usado para armas autônomas ou vigilância doméstica em massa. “O Departamento de Guerra deve ter acesso pleno e irrestrito aos modelos da Anthropic para todo propósito LÍCITO”, escreveu Hegseth.

A menos que o contrato completo da OpenAI revele mais, é difícil não ver a empresa sentada em uma gangorra ideológica, prometendo que, de fato, tem influência e que a usará com orgulho para fazer o que considera correto, ao mesmo tempo que remete à lei como principal salvaguarda para definir o que o Pentágono pode fazer com a tecnologia.

Há três coisas a observar aqui. Uma é se essa posição será suficiente para os funcionários mais críticos da OpenAI. Com as empresas de IA gastando tanto com talentos, é possível que alguns deles vejam na justificativa de Altman um compromisso imperdoável.

Em segundo lugar, há a campanha de terra arrasada que Hegseth prometeu travar contra a Anthropic. Indo muito além de simplesmente cancelar o contrato do governo com a empresa, anunciou que ela seria classificada como um risco para a cadeia de suprimentos e que “nenhum contratado, fornecedor ou parceiro que faça negócios com as Forças Armadas dos Estados Unidos poderá conduzir qualquer atividade comercial com a Anthropic”. Há um debate significativo sobre se esse golpe fatal é juridicamente possível. A Anthropic disse que processará se a ameaça for levada adiante. A OpenAI também se manifestou contra a medida.

Por fim, como o Pentágono vai substituir o Claude, o único modelo de IA que usa ativamente em operações sigilosas, incluindo algumas na Venezuela, enquanto intensifica ataques contra o Irã? Hegseth deu ao órgão seis meses para fazer isso, período durante o qual os militares introduzirão gradualmente os modelos da OpenAI, bem como os da xAI, de Elon Musk.

No entanto, o Claude teria sido usado nos ataques ao Irã horas depois de a proibição ser emitida, sugerindo que uma retirada gradual estará longe de ser simples. Mesmo que a disputa de meses entre a Anthropic e o Pentágono tenha terminado, o que eu duvido, estamos vendo o plano de aceleração da IA do Pentágono pressionar empresas a abrir mão de linhas na areia que haviam traçado antes, com novas tensões no Oriente Médio como principal campo de prova.

Último vídeo

Nossos tópicos