Oficial revela como chatbots podem ser usados para decisões de ataque
Governança

Oficial revela como chatbots podem ser usados para decisões de ataque

Inteligência Artificial Generativa está adicionando uma nova camada interpretativa para essas deliberações

O exército dos Estados Unidos pode usar sistemas de Inteligência Artificial Generativa para classificar listas de alvos e fazer recomendações (que seriam verificadas por humanos) sobre qual atacar primeiro, de acordo com um oficial do Departamento de Defesa. A revelação sobre como as forças armadas podem usar chatbots ocorreu enquanto o Pentágono enfrentava o escrutínio sobre um ataque a uma escola iraniana, no início de março, fato que ainda está sendo investigado.

Mini Banner - Assine a MIT Technology Review

Uma lista de possíveis alvos pode ser alimentada em um sistema de IA generativa que o Pentágono está implantando para ambientes classificados. Segundo o oficial, que pediu para falar em off com a MIT Technology Review sobre tópicos sensíveis, os humanos poderiam, então, pedir ao sistema para analisar as informações e priorizar os alvos, levando em consideração fatores como a localização atual das aeronaves. Os humanos seriam responsáveis por verificar e avaliar os resultados e recomendações. O ChatGPT da OpenAI e o Grok da xAI poderiam, em teoria, ser os modelos usados para esse tipo de cenário no futuro, já que ambas as empresas recentemente firmaram acordos para que seus modelos sejam usados pelo Pentágono em ambientes classificados.

O oficial descreveu isso como um exemplo de como as coisas poderiam funcionar, mas não quis confirmar nem negar se isso representa como os sistemas de IA estão sendo usados atualmente.

Outras fontes relataram que o Claude da Anthropic foi integrado aos sistemas militares de IA existentes e usado em operações no Irã e na Venezuela, mas os comentários do oficial acrescentam uma visão sobre o papel específico que os chatbots podem desempenhar, particularmente em acelerar a busca por alvos. Eles também esclarecem como o exército está implantando duas tecnologias diferentes, cada uma com limitações distintas.

Desde pelo menos 2017, o exército estadunidense tem trabalhado em uma iniciativa de “big data” chamada Maven. Ela usa tipos mais antigos de IA, particularmente visão computacional, para analisar os vastos dados e imagens coletados pelo Pentágono. O Maven pode, por exemplo, pegar milhares de horas de filmagens aéreas de drones e identificar alvos com algoritmos. Um relatório de 2024 da Georgetown University mostrou soldados usando o sistema para selecionar e avaliar alvos, o que acelerou o processo de obtenção de aprovação para agir. Eles interagiam com o Maven por meio de uma interface com um mapa de batalha e painel, que poderia destacar potenciais alvos em uma cor e as forças amigas em outra.

Os comentários do oficial sugerem que agora a IA generativa está sendo adicionada como uma camada de chatbot conversacional, que o exército pode usar para encontrar e analisar dados mais rapidamente enquanto toma decisões, como quais alvos priorizar.

Esses sistemas, como os que sustentam o ChatGPT, Claude e Grok, são uma tecnologia fundamentalmente diferente da IA que tem impulsionado principalmente o Maven. Construídos sobre grandes modelos de linguagem, eles são muito menos testados em batalhas. Enquanto a interface do Maven obrigava os usuários a inspecionar e interpretar diretamente os dados no mapa, os resultados produzidos pelos modelos generativos são mais fáceis de acessar, ainda que mais difíceis de verificar.

O uso de IA generativa para tais decisões está reduzindo o tempo necessário no processo de definição de alvos, acrescentou o oficial. Ele não forneceu detalhes quando perguntado sobre quanto de velocidade adicional haveria se os humanos precisassem gastar tempo verificando as saídas de um modelo.

O uso de sistemas de IA militares está sob um escrutínio público crescente após o recente ataque a uma escola para meninas no Irã, no qual mais de cem crianças morreram. Vários veículos de notícias relataram que o ataque foi realizado por um míssil dos Estados Unidos, embora o Pentágono tenha afirmado que o caso ainda está sob investigação. O jornal Washington Post relatou que o Claude e o Maven estiveram envolvidos nas decisões de definição de alvos no Irã, mas ainda não há evidências para explicar qual foi o papel dos modelos, se é que houve algum. O New York Times publicou em primeira mão que uma investigação preliminar descobriu que dados desatualizados sobre os alvos foram parcialmente responsáveis pelo ataque.

O Pentágono tem aumentado o uso de IA em suas operações nos últimos meses. Em dezembro, o órgão começou a oferecer o uso não classificado de modelos para tarefas, como analisar contratos ou escrever apresentações, a milhões de membros das forças armadas por meio de uma iniciativa chamada GenAI.mil. Mas apenas alguns modelos de IA generativa foram aprovados pelo Pentágono para uso em ambientes classificados.

O primeiro foi o Claude da Anthropic, que além de seu uso no Irã foi reportado como usado nas operações para capturar o líder venezuelano Nicolás Maduro em janeiro. No entanto, após desacordos recentes entre o Pentágono e a Anthropic sobre se a empresa poderia restringir o uso militar de sua IA, o Departamento de Defesa classificou a empresa como um risco à cadeia de suprimentos. O presidente Trump exigiu, nas redes sociais, que o governo parasse de usar os produtos em seis meses, e a Anthropic está contestando a designação na Justiça.

A OpenAI anunciou um acordo, em 28 de fevereiro, para que o exército use suas tecnologias em ambientes classificados. A empresa de Elon Musk, xAI, fez o mesmo para que o Pentágono use seu modelo Grok nesses contextos. A OpenAI disse que seu acordo com o Pentágono veio com limitações, embora a eficácia prática delas não esteja clara.

Último vídeo

Nossos tópicos