A Inteligência Artificial generativa está aprendendo a espionar para o Exército dos EUA
Inteligência artificial

A Inteligência Artificial generativa está aprendendo a espionar para o Exército dos EUA

Em um teste recente, uma unidade de fuzileiros navais no Pacífico usou IA generativa não apenas para coletar inteligência, mas também para interpretá-la. O trabalho rotineiro de inteligência é só o começo.

Durante grande parte do ano passado, cerca de 2.500 militares dos EUA da 15ª Unidade Expedicionária dos Fuzileiros Navais navegaram a bordo de três navios pelo Pacífico, realizando exercícios de treinamento nas águas próximas à Coreia do Sul, Filipinas, Índia e Indonésia. Ao mesmo tempo, a bordo dos navios, um experimento estava em andamento: os fuzileiros responsáveis por filtrar informações de inteligência estrangeira e alertar seus superiores sobre possíveis ameaças locais estavam, pela primeira vez, utilizando inteligência artificial generativa para isso, testando uma das principais ferramentas de IA que vem sendo financiada pelo Pentágono.

Dois oficiais relataram que usaram o novo sistema para vasculhar milhares de fontes abertas de inteligência — artigos não confidenciais, relatórios, imagens, vídeos — coletadas nos diversos países em que operaram, e que o sistema executou essa tarefa muito mais rapidamente do que era possível com o antigo método manual. A capitã Kristin Enzenauer, por exemplo, diz ter usado modelos de linguagem de grande porte para traduzir e resumir fontes jornalísticas estrangeiras, enquanto o capitão Will Lowdon utilizou a IA para ajudar a redigir os relatórios diários e semanais de inteligência que fornecia aos seus comandantes.

“Ainda precisamos validar as fontes”, diz Lowdon. Mas os comandantes da unidade incentivaram o uso de modelos de linguagem de grande porte, segundo ele, “porque eles oferecem muito mais eficiência durante uma situação dinâmica.”

As ferramentas de IA generativa utilizadas foram desenvolvidas pela empresa de tecnologia de defesa Vannevar Labs, que em novembro recebeu um contrato de produção de até US$ 99 milhões concedido pela Unidade de Inovação em Defesa do Pentágono, voltada para startups, com o objetivo de levar sua tecnologia de inteligência para mais unidades militares. Fundada em 2019 por veteranos da CIA e da comunidade de inteligência dos EUA, a empresa junta-se a nomes como Palantir, Anduril e Scale AI como uma das principais beneficiárias da adoção da inteligência artificial pelo setor militar — não apenas para tecnologias físicas, como drones e veículos autônomos, mas também para softwares que estão revolucionando a forma como o Pentágono coleta, gerencia e interpreta dados para fins de guerra e vigilância.

Embora o exército dos EUA venha desenvolvendo modelos de visão computacional e ferramentas de IA semelhantes — como as utilizadas no Project Maven — desde 2017, o uso de IA generativa — ferramentas capazes de manter conversas semelhantes às humanas, como as desenvolvidas pela Vannevar Labs — representa uma nova fronteira.

A empresa aplica modelos de linguagem de grande porte já existentes, incluindo alguns da OpenAI e da Microsoft, além de modelos próprios, a enormes volumes de inteligência de fonte aberta que vem coletando desde 2021. A escala dessa coleta de dados é difícil de compreender (e é uma das principais características que diferenciam os produtos da Vannevar): terabytes de dados em 80 idiomas diferentes são captados todos os dias em 180 países. A empresa afirma que consegue analisar perfis de redes sociais e romper firewalls em países como a China para obter informações de difícil acesso; também utiliza dados não confidenciais difíceis de encontrar online (coletados por agentes humanos em campo), além de relatórios de sensores físicos que monitoram ondas de rádio de forma secreta para detectar atividades ilegais de transporte marítimo.

A Vannevar então desenvolve modelos de IA para traduzir informações, detectar ameaças e analisar sentimento político, com os resultados entregues por meio de uma interface de chatbot semelhante ao ChatGPT. O objetivo é fornecer aos clientes informações críticas sobre temas tão variados quanto cadeias internacionais de fornecimento de fentanil e os esforços da China para garantir minerais de terras raras nas Filipinas.

“O nosso foco real como empresa”, diz Scott Philips, diretor de tecnologia da Vannevar Labs, é “coletar dados, dar sentido a esses dados e ajudar os EUA a tomar boas decisões.”

Essa abordagem é particularmente atraente para o aparato de inteligência dos EUA porque, há anos, o mundo está inundado por mais dados do que analistas humanos conseguem interpretar — um problema que contribuiu para a fundação da Palantir em 2003, uma empresa com valor de mercado superior a US$ 200 bilhões e conhecida por suas ferramentas poderosas e controversas, incluindo um banco de dados que auxilia o Serviço de Imigração e Controle de Alfândega (ICE) a buscar e rastrear informações sobre imigrantes indocumentados.

Em 2019, a Vannevar viu uma oportunidade de usar modelos de linguagem de grande porte — então uma novidade no cenário tecnológico — como uma solução inovadora para o dilema dos dados. A tecnologia permitiria que a IA não apenas coletasse informações, mas também discutisse uma análise de forma interativa com um usuário.

As ferramentas da Vannevar mostraram-se úteis na missão no Pacífico, e Enzenauer e Lowdon dizem que, embora tivessem sido instruídos a sempre revisar o trabalho da IA, não encontraram imprecisões como um problema significativo. Enzenauer usava regularmente a ferramenta para acompanhar qualquer reportagem estrangeira que mencionasse os exercícios da unidade e para realizar análises de sentimento, detectando as emoções e opiniões expressas nos textos. Avaliar se um artigo da imprensa estrangeira refletia uma opinião ameaçadora ou amigável em relação à unidade era uma tarefa que, em missões anteriores, ela precisava realizar manualmente.

“Era feito principalmente à mão — pesquisar, traduzir, codificar e analisar os dados”, diz ela. “Definitivamente, levava muito mais tempo do que quando usávamos a IA.”

Ainda assim, Enzenauer e Lowdon relatam que houve alguns contratempos, alguns dos quais afetariam a maioria das ferramentas digitais: os navios enfrentavam conexões instáveis de internet na maior parte do tempo, o que limitava a velocidade com que o modelo de IA conseguia sintetizar a inteligência estrangeira, especialmente quando envolvia fotos ou vídeos.

Com esse primeiro teste concluído, o oficial comandante da unidade, coronel Sean Dynan, disse em uma ligação com repórteres em fevereiro que o uso mais intenso de IA generativa estava a caminho; esse experimento foi “apenas a ponta do iceberg.”

Esse é, de fato, o rumo para o qual todo o exército dos EUA está avançando a todo vapor. Em dezembro, o Pentágono anunciou que gastará US$ 100 milhões nos próximos dois anos em projetos-piloto voltados especificamente para aplicações de IA generativa. Além da Vannevar, o Departamento de Defesa também está recorrendo à Microsoft e à Palantir, que estão trabalhando juntas em modelos de IA que utilizariam dados confidenciais. (Os EUA, claro, não estão sozinhos nessa abordagem; notavelmente, Israel tem usado IA para filtrar informações e até mesmo gerar listas de alvos em sua guerra em Gaza — prática amplamente criticada.)

Talvez sem surpresa, muitas pessoas fora do Pentágono estão alertando sobre os possíveis riscos desse plano — entre elas, Heidy Khlaaf, cientista-chefe de IA no AI Now Institute, uma organização de pesquisa especializada, com experiência em liderar auditorias de segurança para sistemas com inteligência artificial. Ela afirma que essa corrida para incorporar IA generativa na tomada de decisões militares ignora falhas mais fundamentais da tecnologia: “Já sabemos que os LLMs são altamente imprecisos, especialmente no contexto de aplicações críticas à segurança que exigem precisão.”

Khlaaf acrescenta que, mesmo que humanos estejam “verificando” o trabalho da IA, há pouca razão para acreditar que consigam identificar todos os erros. “‘Humano no circuito’ nem sempre é uma mitigação significativa”, diz ela. Quando um modelo de IA depende de milhares de pontos de dados para chegar a conclusões, “não seria realmente possível para um ser humano filtrar essa quantidade de informação para determinar se a saída da IA estava errada”.

Um caso de uso específico que a preocupa é a análise de sentimento, que ela argumenta ser “uma métrica altamente subjetiva que até mesmo humanos teriam dificuldade em avaliar adequadamente com base apenas na mídia”.

Se a IA perceber hostilidade contra as forças dos EUA onde um analista humano não perceberia — ou se o sistema deixar de detectar uma hostilidade que de fato existe —, os militares podem tomar uma decisão mal-informada ou escalar uma situação desnecessariamente.

A análise de sentimento é, de fato, uma tarefa que a IA ainda não aperfeiçoou. Philips, o CTO da Vannevar, afirma que a empresa desenvolveu modelos especificamente para julgar se um artigo é pró-EUA ou não, mas a MIT Technology Review não conseguiu avaliá-los.

Mini Banner - Assine a MIT Technology Review

Chris Mouton, engenheiro sênior da RAND, testou recentemente quão adequadas são as IAs generativas para essa tarefa. Ele avaliou modelos líderes, incluindo o GPT-4 da OpenAI e uma versão mais antiga do GPT ajustada para esse tipo de trabalho de inteligência, verificando quão precisamente identificavam conteúdos estrangeiros como propaganda em comparação com especialistas humanos. “É difícil”, diz ele, observando que a IA teve dificuldade para identificar tipos mais sutis de propaganda. Mas acrescenta que os modelos ainda podem ser úteis em muitas outras tarefas de análise.

Outra limitação da abordagem da Vannevar, segundo Khlaaf, é que a utilidade da inteligência de fonte aberta é discutível. Mouton afirma que dados de fonte aberta podem ser “bastante extraordinários”, mas Khlaaf destaca que, ao contrário das informações confidenciais obtidas por meio de reconhecimento ou escutas, esses dados estão expostos na internet aberta — o que os torna muito mais suscetíveis a campanhas de desinformação, redes de bots e manipulação deliberada, como o Exército dos EUA já alertou.

Para Mouton, a maior dúvida no momento é se essas tecnologias de IA generativa serão apenas mais uma ferramenta de investigação entre muitas usadas por analistas — ou se passarão a gerar análises subjetivas nas quais se confia para a tomada de decisões. “Esse é o debate central”, diz ele.

O que todos concordam é que os modelos de IA são acessíveis — você pode simplesmente fazer uma pergunta sobre informações complexas, e eles responderão em linguagem simples. Mas ainda está em aberto quais imperfeições serão consideradas aceitáveis em nome da eficiência.

Último vídeo

Nossos tópicos