No início de 2024, as regras da OpenAI sobre como as forças armadas poderiam usar sua tecnologia eram inequívocas.
A empresa proibia qualquer pessoa de usar seus modelos para “desenvolvimento de armas” ou negócios ligados a “militares e guerra”. Isso mudou em 10 de janeiro, quando o Intercept informou que a OpenAI havia suavizado essas restrições, proibindo qualquer pessoa de usar a tecnologia para “prejudicar a si mesmo ou a outros”, isto é, desenvolvendo ou usando armas, ferindo outras pessoas ou destruindo propriedades. Logo depois, a empresa disse que trabalharia com o Pentágono em software de segurança cibernética, mas não em armas. Em seguida, em uma postagem de blog publicada em outubro, a empresa compartilhou que está trabalhando no espaço de segurança nacional, argumentando que, nas mãos certas, a IA poderia “ajudar a proteger as pessoas, deter adversários e até mesmo evitar conflitos futuros”.
Nos dias atuais, a OpenAI está anunciando que sua tecnologia será implantada diretamente no campo de batalha.
De acordo com o anúncio, a empresa fará uma parceria com a organização de tecnologia de defesa Anduril, fabricante de drones, sistemas de radar e mísseis com tecnologia de IA, para ajudar as forças americanas e aliadas a se defenderem contra ataques de drones. A OpenAI ajudará a criar modelos de IA que “sintetizem rapidamente dados sensíveis ao tempo, reduzam a carga sobre os operadores humanos e melhorem a consciência situacional” para derrubar drones inimigos. Não foram divulgados detalhes específicos, mas o programa será estritamente focado na defesa do pessoal e das instalações dos EUA contra ameaças aéreas não tripuladas, de acordo com Liz Bourgeois, porta-voz da OpenAI. “Essa parceria é consistente com nossas políticas e não envolve o uso de nossa tecnologia para desenvolver sistemas projetados para prejudicar outras pessoas”, disse ela. Um porta-voz da Anduril não forneceu detalhes específicos sobre as bases ao redor do mundo onde os modelos serão implantados, mas disse que a tecnologia ajudará a detectar e rastrear drones e reduzirá o tempo que os membros do serviço gastam em tarefas monótonas.
As políticas da OpenAI que proibiam o uso militar de sua tecnologia foram desfeitas em menos de um ano. Quando a empresa flexibilizou sua regra, antes clara, no início de 2024, a intenção era permitir o trabalho com os militares em contextos limitados, como segurança cibernética, prevenção de suicídios e ajuda em desastres, de acordo com um porta-voz da companhia.
Agora, a OpenAI está abraçando abertamente seu trabalho em segurança nacional. Se trabalhar com militares ou empresas de tecnologia de defesa pode ajudar a garantir que os países democráticos dominem a corrida da IA, escreveu a empresa, então isso não contradiz a missão da empresa de garantir que os benefícios da IA sejam amplamente compartilhados. De fato, ela argumenta que isso ajudará a cumprir essa missão. Mas não se engane: essa é uma grande mudança em relação à sua posição de apenas um ano atrás.
Para entender a rapidez com que essa mudança se desenrolou, vale a pena observar que, enquanto a empresa vacilava em sua abordagem no setor de segurança nacional, outras empresas de tecnologia estavam correndo em direção a ele.
As empresas de capital de risco mais do que dobraram seus investimentos em tecnologia de defesa em 2021, chegando a US$ 40 bilhões, depois que empresas como Anduril e Palantir provaram que, com alguma persuasão (e litígio), o Pentágono pagaria muito bem por inovações na área. A oposição dos funcionários ao trabalho na área de guerra (mais palpável durante as greves no Google em 2018) diminuiu para alguns quando a Rússia invadiu a Ucrânia em 2022 (vários executivos da área de tecnologia de defesa me disseram que o caráter “inequívoco” dessa guerra os ajudou a atrair investimentos e talentos).
Portanto, de certa forma, ao trazer a defesa para o seu portfólio, a OpenAI está apenas se atualizando. A diferença agora é que as empresas de tecnologia de defesa reconhecem que estão no ramo da guerra e não tiveram que renegar rapidamente seu legado como empresa de pesquisa de IA sem fins lucrativos. Desde sua fundação, a OpenAI se posicionou como uma organização com a missão de garantir que a inteligência artificial geral beneficie toda a humanidade. Ela prometeu publicamente que trabalhar com os militares contradizia essa missão.
Sua postagem no blog, em 24 de outubro, traçou um novo caminho, tentando equilibrar a disposição da OpenAI de trabalhar na defesa com seus valores declarados. Intitulado “OpenAI’s approach to AI and national security” (Abordagem da OpenAI sobre IA e segurança nacional), foi publicado no mesmo dia em que a Casa Branca emitiu seu National Security Memorandum on AI (Memorando de segurança nacional sobre IA), que ordenou que o Pentágono e outras agências aumentassem o uso de IA, em parte para impedir a concorrência da China.
“Acreditamos que uma visão democrática para a IA é essencial para liberar todo o seu potencial e garantir que seus benefícios sejam amplamente compartilhados”, escreveu a OpenAI, ecoando uma linguagem semelhante no memorando da Casa Branca. “Acreditamos que as democracias devem continuar a assumir a liderança no desenvolvimento da IA, guiadas por valores como liberdade, justiça e respeito aos direitos humanos.”
O texto ofereceu várias maneiras pelas quais a OpenAI poderia ajudar a atingir esse objetivo, incluindo esforços para “simplificar as tarefas de tradução e resumo e estudar e mitigar os danos aos civis”, ao mesmo tempo em que proibia que sua tecnologia fosse usada para “prejudicar pessoas, destruir propriedades ou desenvolver armas”. Acima de tudo, foi uma mensagem da empresa de que ela está de acordo com o trabalho de segurança nacional.
As novas políticas enfatizam “a flexibilidade e a conformidade com a lei”, diz Heidy Khlaaf, cientista-chefe de inteligência artificial do AI Now Institute e pesquisadora de segurança que publicou um artigo com a OpenAI em 2022 sobre os possíveis riscos de sua tecnologia em contextos que incluem os militares. O pivô da empresa, “em última análise, sinaliza uma aceitabilidade na realização de atividades relacionadas às forças armadas e à guerra, como o Pentágono e as forças armadas dos EUA consideram adequado”, diz ela.
A Amazon, o Google e a Microsoft, parceira e investidora da OpenAI, competem há anos pelos contratos de computação em nuvem do Pentágono. Essas empresas aprenderam que trabalhar com o setor de defesa pode ser incrivelmente lucrativo, e a mudança da OpenAI, que ocorre em um momento em que a empresa prevê perdas de US$ 5 bilhões e está explorando novos fluxos de receita, como a publicidade, pode indicar que ela quer uma parte desses contratos. As relações da Big Tech com os militares também não provocam mais a indignação e o escrutínio de outrora. Mas a OpenAI não é um provedor de nuvem, e a tecnologia que ela está desenvolvendo é capaz de fazer muito mais do que simplesmente armazenar e recuperar dados. Com essa nova parceria, a OpenAI promete ajudar a classificar os dados no campo de batalha, fornecer percepções sobre ameaças e ajudar a tornar o processo de tomada de decisões na guerra mais rápido e eficiente.
As declarações da OpenAI sobre segurança nacional talvez levantem mais perguntas do que respostas. A empresa quer reduzir os danos aos civis, mas para quais civis? Contribuir com modelos de IA para um programa que abate drones não conta como desenvolvimento de armas que podem prejudicar as pessoas?
“Armas defensivas ainda são, de fato, armas”, diz Khlaaf. Elas “muitas vezes podem ser posicionadas ofensivamente, dependendo do local e do objetivo de uma missão”.
Para além dessas questões, trabalhar no setor de defesa significa que a principal empresa de IA do mundo, que teve uma incrível alavancagem no setor e por muito tempo demonstrou como administrar a IA de forma responsável, agora trabalhará em um setor de tecnologia de defesa que segue e concorda com um conjunto de regras totalmente diferente. Nesse sistema, quando seu cliente é o exército dos EUA, as empresas de tecnologia não podem decidir como seus produtos serão usados.
–