Já se passaram pouco mais de duas semanas desde que a OpenAI firmou um acordo controverso permitindo que o Pentágono use sua Inteligência Artificial em ambientes classificados. Ainda há questões urgentes sobre o que exatamente o acordo da OpenAI permite; Sam Altman afirmou que o exército não pode usar a tecnologia de sua empresa para construir armas autônomas, mas o acordo basicamente exige que o exército siga suas próprias diretrizes (bastante permissivas) sobre tais armas. Outra grande alegação da OpenAI, de que o acordo impedirá o uso de sua tecnologia para vigilância doméstica, também parece igualmente duvidosa.
Não está claro quais são as motivações da OpenAI. Não é a primeira gigante da tecnologia a abraçar contratos militares que havia prometido nunca assinar, mas a velocidade da mudança foi notável. Talvez seja apenas uma questão de dinheiro; a OpenAI está gastando muito com o treinamento de IA e está em busca de mais receita (de fontes como anúncios). Ou talvez Altman realmente acredite na moldura ideológica que ele frequentemente invoca: que as democracias liberais (e seus exércitos) precisam ter acesso à IA mais poderosa para competir com a China.
A questão mais consequente é o que acontece a seguir. A OpenAI decidiu que está confortável operando bem no coração tumultuado do combate, justamente quando os EUA aumentam seus ataques ao Irã (com a IA desempenhando um papel maior do que nunca nisso). Então, onde exatamente a tecnologia da OpenAI poderia aparecer neste combate? E quais aplicações seus clientes (e funcionários) vão tolerar?
Alvos e ataques
Embora o acordo com o Pentágono tenha sido fechado, não está claro quando a tecnologia da OpenAI estará pronta para ambientes classificados, já que ela precisa ser integrada com outras ferramentas que o exército usa (o xAI de Elon Musk, que recentemente fechou seu próprio acordo com o Pentágono, deverá passar pelo mesmo processo com seu modelo de IA Grok). Mas há pressão para fazer isso rapidamente devido à controvérsia em torno da tecnologia que está sendo usada até agora: após a Anthropic se recusar a permitir que sua IA fosse usada para “qualquer uso legal”, o presidente Trump ordenou que o exército parasse de usá-la, e a Anthropic foi designada como risco de cadeia de suprimentos pelo Pentágono. (A Anthropic está contestando essa designação na justiça.)
Se o conflito no Irã ainda estiver em andamento quando a tecnologia da OpenAI estiver no sistema, para que ela poderia ser usada? Uma conversa recente que tive com um oficial de defesa sugere que poderia ser algo assim: um analista humano poderia colocar uma lista de alvos potenciais no modelo de IA e pedir para que ele analisasse as informações e priorizasse quais atacar primeiro. O modelo poderia levar em conta informações logísticas, como onde determinados aviões ou suprimentos estão localizados. Ele poderia analisar diversos inputs, como texto, imagem e vídeo.
Um humano seria então responsável por verificar manualmente esses resultados, disse o oficial. Mas isso levanta uma pergunta óbvia: se uma pessoa está realmente verificando os resultados da IA, como isso acelera as decisões de ataque e de definição de alvos?
Por anos, o exército tem usado outro sistema de IA, chamado Maven, que pode lidar com tarefas como analisar automaticamente filmagens de drones para identificar possíveis alvos. É provável que os modelos da OpenAI, como o Claude da Anthropic, ofereçam uma interface de conversação sobre isso, permitindo que os usuários peçam interpretações da inteligência e recomendações sobre quais alvos atacar primeiro.
É difícil exagerar o quão novo isso é: a IA há muito tempo faz análises para o exército, extraindo insights de grandes volumes de dados. Mas usar o conselho da IA generativa sobre quais ações tomar no campo está sendo testado seriamente pela primeira vez no Irã.
Defesa contra drones
No final de 2024, a OpenAI anunciou uma parceria com a Anduril, que fabrica tanto drones quanto tecnologias de contra-drones para o exército. O acordo afirmou que a OpenAI trabalharia com a Anduril para fazer análises sensíveis ao tempo de drones atacando as forças dos EUA e ajudar a derrubá-los. Um porta-voz da OpenAI me disse na época que isso não violava as políticas da empresa, que proíbem “sistemas projetados para prejudicar outros”, porque a tecnologia estava sendo usada para atacar drones e não pessoas.
A Anduril fornece um conjunto de tecnologias de contra-drones para bases militares em todo o mundo (embora a empresa tenha se recusado a me informar se seus sistemas estão implantados perto do Irã). Nenhuma das empresas forneceu atualizações sobre como o projeto evoluiu desde que foi anunciado. No entanto, a Anduril já treina seus próprios modelos de IA para analisar filmagens de câmeras e dados de sensores para identificar ameaças; o que ela foca menos são os sistemas de IA conversacional que permitem que os soldados consultem diretamente esses sistemas ou recebam orientações em linguagem natural, uma área onde os modelos da OpenAI podem se encaixar.
Os riscos são altos. Seis membros dos serviços dos EUA foram mortos no Kuwait em 1º de março após um ataque de drone iraniano que não foi interceptado pelas defesas aéreas dos EUA.
A interface da Anduril, chamada Lattice, é onde os soldados podem controlar tudo, desde defesas contra drones até mísseis e submarinos autônomos. E a empresa está conquistando contratos gigantescos, 20 bilhões de dólares do Exército dos EUA apenas na semana passada, para conectar seus sistemas a equipamentos militares legados e adicionar camadas de IA sobre eles. Se os modelos da OpenAI se mostrarem úteis para a Anduril, a Lattice foi projetada para incorporá-los rapidamente a essa pilha mais ampla de guerra.
IA de retaguarda
Em dezembro, o secretário de Defesa Pete Hegseth começou a incentivar milhões de pessoas em funções mais administrativas no exército, como contratos, logística, compras, a usar uma nova ferramenta de IA. Chamada GenAI.mil, ela oferecia uma forma de o pessoal acessar com segurança modelos comerciais de IA e usá-los para os mesmos tipos de tarefas que qualquer pessoa no mundo corporativo.
O Google Gemini foi um dos primeiros a ficar disponível. Em janeiro, o Pentágono anunciou que o Grok, da xAI, também seria adicionado à plataforma GenAI.mil, apesar de episódios em que o modelo havia disseminado conteúdo antissemita e criado deepfakes não consensuais. A OpenAI veio em seguida, em fevereiro, com a empresa anunciando que seus modelos seriam usados para redigir documentos de políticas e contratos e auxiliar no suporte administrativo de missões.
Qualquer pessoa usando o ChatGPT para tarefas não classificadas nessa plataforma provavelmente não terá muita influência sobre decisões sensíveis no Irã, mas a perspectiva de a OpenAI ser implantada na plataforma é importante de outra forma. Ela serve à postura de adesão total à IA que Hegseth vem promovendo incansavelmente em todo o Pentágono (mesmo que muitos usuários iniciais não tenham total certeza de para que exatamente deveriam usá-la). A mensagem é que a IA está transformando todos os aspectos de como os EUA travam suas guerras, desde decisões de definição de alvos até a papelada. E a OpenAI está, cada vez mais, conquistando uma fatia de tudo isso.



