O Pentágono, sede de defesa dos Estados Unidos, está discutindo planos para criar ambientes seguros para que empresas de Inteligência Artificial Generativa treinem versões militares de seus modelos com dados sigilosos.
Modelos como o Claude, da Anthropic, já são usados para responder perguntas em ambientes sigilosos. As aplicações incluem a análise de alvos no Irã. No entanto, permitir que eles treinem e aprendam com as informações seria um novo desenvolvimento, que apresentaria riscos únicos de segurança. Isso significaria que relatórios de vigilância ou avaliações de campo de batalha poderiam ser incorporadas aos próprios modelos, além de aproximar as empresas de tecnologia de dados sigilosos, ainda mais que antes.
A medida pode torná-los mais precisos e eficazes em determinadas tarefas, segundo um oficial de defesa, que falou sob anonimato à MIT Technology Review. A notícia surge em um momento de alta demanda por modelos mais poderosos. O Pentágono fechou acordos com a OpenAI e a xAI de Elon Musk para operar seus modelos em ambientes sigilosos e está implementando uma nova agenda para se tornar uma “força de combate ‘centrada em IA’”, à medida que o conflito com o Irã se intensifica. (O Pentágono não comentou até a publicação.)
O treinamento seria realizado em um data center credenciado para hospedar projetos governamentais secretos, onde uma cópia de um modelo de IA seria emparelhada com dados sigilosos, de acordo com duas pessoas familiarizadas com tais operações. Embora o Departamento de Defesa continue sendo o proprietário dos dados, os funcionários das empresas de IA poderiam, em casos raros, acessá-los se tiverem a devida autorização de segurança, segundo o oficial.
Antes de permitir esse novo treinamento, no entanto, o Pentágono pretende avaliar a precisão e a eficácia dos modelos quando treinados com dados não sigilosos, como imagens de satélite comercialmente disponíveis, ainda de acordo com a fonte.
O exército usa, há muito tempo, modelos de visão computacional, uma forma mais antiga de IA, para identificar objetos em imagens e filmagens coletadas de drones e aviões. Agências federais têm concedido contratos a empresas para treinar modelos com esse conteúdo. Além disso, empresas que constroem grandes modelos de linguagem (Large Language Models, ou LLMs) e chatbots criaram versões ajustadas para o trabalho governamental, como o Claude Gov, da Anthropic, que são projetados para operar em mais idiomas e em ambientes seguros. Mas os comentários do oficial são a primeira indicação de que empresas de IA que constroem esses modelos como a OpenAI e a xAI, poderiam treinar versões específicas para o governo diretamente com dados classificados.
Aalok Mehta, que dirige a organização Wadhwani AI Center no Center for Strategic and International Studies e liderou anteriormente os esforços de política de IA no Google e na OpenAI, afirma que o treinamento com dados sigilosos, em vez de apenas responder perguntas sobre eles, apresentaria novos riscos.
O maior deles é que a informação com a qual esses modelos são treinados poderia ser revelada a qualquer pessoa que usasse o modelo. Isso seria um problema se muitos departamentos militares diferentes, todos com níveis de sigilo diferentes e necessidades de informações distintas, compartilhassem a mesma IA.
“Você pode imaginar, por exemplo, um modelo que tem acesso a algum tipo de inteligência humana sensível, como o nome de um militar, vazando essa informação para uma parte do Departamento de Defesa que não deveria ter acesso a ela”, diz Mehta. Isso poderia criar um risco de segurança para ele, difícil de mitigar perfeitamente se um modelo específico for usado por mais de um grupo dentro do exército.
No entanto, Mehta afirma que não é tão difícil manter a informação contida do mundo em geral: “Se você configurar isso da maneira certa, terá muito pouco risco de esses dados serem expostos na Internet geral ou de volta para a OpenAI.” O governo já possui parte da infraestrutura necessária para isso. O gigante de segurança Palantir conquistou contratos substanciais para construir um ambiente seguro por meio do qual oficiais podem consultar modelos de IA sobre tópicos sigilosos sem enviar as informações de volta para as empresas de tecnologia. Mas usar esses sistemas para treinamento ainda é um novo desafio.
O Pentágono, impulsionado por um memorando do Secretário de Defesa Pete Hegseth em janeiro, corre para incorporar mais IA. Ela tem sido usada no combate, onde classificou listas de alvos e recomendou qual atacar primeiro, e em funções mais administrativas, como redigir contratos e relatórios.
Há muitas tarefas atualmente realizadas por analistas humanos que o exército pode querer treinar os principais modelos de IA para realizar, e que exigiriam acesso a dados classificados, diz Mehta. Isso pode incluir aprender a identificar pistas sutis em uma imagem da mesma forma que um analista faria, ou conectar novas informações com o contexto histórico. Os dados classificados poderiam ser extraídos das imensas quantidades de texto, áudio, imagens e vídeos, em vários idiomas, que os serviços de inteligência coletam.
É realmente difícil dizer quais tarefas militares específicas exigiriam que modelos de IA treinassem com tais dados, adverte Mehta, “porque, obviamente, o Departamento de Defesa tem muitos incentivos para manter essas informações confidenciais, e eles não querem que outros países saibam exatamente que tipo de capacidades temos nesse espaço.”


