A segunda fase da IA militar chegou
Inteligência artificial

A segunda fase da IA militar chegou

Três perguntas em aberto sobre o avanço do Pentágono em direção à IA generativa.

Conversei com dois fuzileiros navais dos EUA que passaram boa parte do ano passado destacados no Pacífico, participando de exercícios de treinamento da Coreia do Sul às Filipinas. Ambos eram responsáveis por analisar imagens de vigilância e alertar seus superiores sobre possíveis ameaças à unidade. Mas essa missão foi única: pela primeira vez, eles estavam usando inteligência artificial generativa para vasculhar informações de inteligência, por meio de uma interface de chatbot semelhante ao ChatGPT.

Esse experimento é a mais recente evidência do esforço do Pentágono para utilizar IA generativa — ferramentas capazes de manter conversas semelhantes às humanas — em toda a sua estrutura, inclusive em tarefas como vigilância. Considere isso como a fase dois da investida da IA pelas Forças Armadas dos EUA, sendo que a fase um começou em 2017 com tipos mais antigos de IA, como a visão computacional para analisar imagens de drones. Embora essa nova fase tenha começado durante o governo Biden, há uma nova urgência com Elon Musk à frente do DOGE e o secretário de Defesa Pete Hegseth defendendo com força a eficiência impulsionada por IA.

Esse avanço levanta alertas entre alguns especialistas em segurança da IA sobre se os grandes modelos de linguagem são realmente adequados para analisar informações sutis de inteligência em cenários com alto risco geopolítico. Além disso, acelera a chegada de um mundo em que a IA não apenas analisa dados militares, mas também sugere ações — por exemplo, gerando listas de alvos. Os defensores afirmam que isso promete maior precisão e menos mortes de civis, mas muitas organizações de direitos humanos argumentam o contrário.

Com isso em mente, aqui estão três questões em aberto para se acompanhar à medida que as Forças Armadas dos EUA — e de outros países ao redor do mundo — incorporam IA generativa a mais etapas da chamada “cadeia de letalidade.”

Quais são os limites do “humano no circuito”?

Converse com tantas empresas de tecnologia de defesa quanto eu, e você ouvirá uma frase se repetir com frequência: “humano no circuito”. Isso significa que a IA é responsável por tarefas específicas, e os humanos estão presentes para revisar seu trabalho. A expressão serve como uma salvaguarda contra os cenários mais sombrios — como a IA ordenar erroneamente um ataque letal — mas também contra falhas mais triviais. Implícita nessa ideia está a admissão de que a IA cometerá erros e a promessa de que os humanos os detectarão.

Mas a complexidade dos sistemas de IA, que se baseiam em milhares de dados, torna essa tarefa hercúlea para os humanos, diz Heidy Khlaaf, cientista-chefe de IA no AI Now Institute, uma organização de pesquisa, e ex-líder de auditorias de segurança em sistemas com IA.

“‘Humano no circuito’ nem sempre é uma mitigação significativa”, afirma ela. Quando um modelo de IA depende de milhares de pontos de dados para tirar conclusões, “não seria realmente possível para um humano vasculhar essa quantidade de informações para determinar se a saída da IA estava equivocada”. À medida que os sistemas de IA passam a depender de volumes cada vez maiores de dados, esse problema se agrava.

A IA está tornando mais fácil ou mais difícil saber o que deve ser classificado?

Na era da Guerra Fria da inteligência militar dos EUA, as informações eram obtidas por meios secretos, transformadas em relatórios por especialistas em Washington e depois carimbadas como “ultrassecreto”, com acesso restrito a pessoas com as devidas autorizações. A era dos big data — e agora o advento da IA generativa para analisar esses dados — está subvertendo esse antigo paradigma de diversas maneiras.

Um problema específico é chamado de classificação por compilação. Imagine que centenas de documentos não classificados contenham, cada um, detalhes separados de um sistema militar. Alguém que conseguisse juntar essas peças poderia revelar informações importantes que, isoladamente, seriam classificadas. Durante anos, presumiu-se que nenhum ser humano seria capaz de fazer essas conexões, mas esse é exatamente o tipo de tarefa em que modelos de linguagem de grande escala se destacam.

Com a montanha de dados crescendo a cada dia, e com a IA constantemente criando novas análises, “acho que ninguém chegou a boas respostas sobre qual deveria ser a classificação apropriada de todos esses produtos”, afirma Chris Mouton, engenheiro sênior da RAND, que recentemente testou o quão adequada é a IA generativa para fins de inteligência e análise. Classificar menos do que o necessário é uma preocupação de segurança para os EUA, mas parlamentares também já criticaram o Pentágono por classificar informações em excesso.

A gigante da defesa Palantir está se posicionando para ajudar, oferecendo suas ferramentas de IA para determinar se um dado deve ser classificado ou não. A empresa também está trabalhando com a Microsoft em modelos de IA que seriam treinados com dados sigilosos.

Mini Banner - Assine a MIT Technology Review

Quão alto na cadeia de decisões a IA deve chegar?

Ampliando a perspectiva por um momento, vale observar que a adoção da IA pelas Forças Armadas dos EUA tem, em muitos aspectos, seguido os padrões do consumidor. Em 2017, quando os aplicativos em nossos celulares estavam ficando bons em reconhecer amigos em fotos, o Pentágono lançou seu próprio projeto de visão computacional, chamado Project Maven, para analisar imagens de drones e identificar alvos.

Agora, à medida que os grandes modelos de linguagem entram em nossas vidas pessoais e profissionais por meio de interfaces como o ChatGPT, o Pentágono está começando a usar alguns desses modelos para analisar informações de vigilância.

E o que vem a seguir? Para os consumidores, é a IA agente — modelos que não apenas conversam com você e analisam informações, mas também navegam na internet e executam ações em seu nome. Também é a IA personalizada — modelos que aprendem com seus dados privados para se tornarem mais úteis.

Todos os sinais apontam para a possibilidade de que os modelos de IA militar seguirão essa mesma trajetória. Um relatório publicado em março pelo Center for Security and Emerging Technology da Universidade de Georgetown identificou um aumento no uso de IA pelas Forças Armadas para auxiliar na tomada de decisões. “Comandantes militares estão interessados no potencial da IA para melhorar a tomada de decisões, especialmente no nível operacional da guerra”, escreveram os autores.

Em outubro, a administração Biden publicou seu memorando de segurança nacional sobre IA, que estabelecia algumas salvaguardas para esses cenários. Esse memorando ainda não foi formalmente revogado pela administração Trump, mas o presidente Trump já indicou que a corrida por uma IA competitiva nos EUA precisa de mais inovação e menos regulamentação. De qualquer forma, é evidente que a IA está rapidamente subindo na hierarquia, não apenas para lidar com tarefas administrativas, mas também para auxiliar nas decisões mais críticas e sensíveis ao tempo.

Último vídeo

Nossos tópicos