Foi só 2026 começar, e os ventos de guerra se intensificaram no cenário internacional. Da intervenção militar americana na Venezuela em janeiro, ao ataque conjunto de Estados Unidos e Israel ao Irã em março, o mundo atravessa um momento de crescente instabilidade geopolítica, em forte contraste com o que o historiador Francis Fukuyama já tinha denominado “o fim da história”, em seu livro homônimo de 1992.
No meio de invasões, bombas e “war rooms”, há um elemento em comum: a Inteligência Artificial. Hoje ela já faz parte de operações de defesa, sistemas de vigilância, análise preditiva de ameaças e processos de tomada de decisão militar, em particular através do Maven Smart System (MSS), uma plataforma desenvolvida pela Palantir, empresa fundada por Peter Thiel e Alex Karp que possui um contrato de US$ 10 bilhões com o Pentágono para a próxima década.
Criado originalmente em 2017 para aplicar visão computacional a imagens de drones e identificar objetos de interesse, o sistema evoluiu significativamente nos últimos anos com a integração de modelos de IA como o Claude, da Anthropic. Integrando diferentes fontes de dados, imagens de satélite, sinais de radar e relatórios de inteligência, o MSS cria uma visão única e operacional do campo de batalha.
Porém, junto com esses superpoderes, a IA aplicada ao campo militar também traz profundas implicações éticas. Quem é responsável por um erro cometido por um algoritmo? Como confiar em sistemas cujos processos de decisão muitas vezes são opacos? O que acontece quando essas decisões são tomadas sem as emoções e o senso moral que um operador humano naturalmente carrega ao enfrentar escolhas extremas, como lançar um míssil? Cada vez mais, essas perguntas também afetam a reputação das próprias empresas que desenvolvem e fornecem essas tecnologias.
É nesse contexto que a Anthropic volta ao centro da discussão. Em um contexto em que a confiança nas empresas de IA vem diminuindo globalmente, de 61% em 2019 para 53% em 2024, segundo o Edelman Trust Barometer, o setor entrou em uma corrida para conquistar a confiança dos usuários.
A Anthropic tentou fazer inicialmente isso de forma explícita. A empresa gastou cerca de US$ 16 milhões em dois anúncios no Super Bowl, se posicionando como uma companhia de IA ética e criticando indiretamente a decisão da rival OpenAI de introduzir publicidade no ChatGPT.
Os anúncios surtiram efeito: as visitas ao site da empresa cresceram 6,5% após o jogo, enquanto o número de usuários ativos diários aumentou 11%, o maior salto diário já registrado pela plataforma.
Isso ajudou? Em parte, mas não foi o que realmente fez a diferença.
Três semanas após o Super Bowl, a Anthropic enfrentou uma decisão muito mais difícil. O Pentágono exigiu que a empresa removesse as restrições sobre como o Claude poderia ser utilizado, incluindo limitações relacionadas a vigilância doméstica em massa e ao uso em armas autônomas. A condição era clara: aceitar uma cláusula de “qualquer uso legal” ou perder um contrato de US$ 200 milhões. A Anthropic recusou.
A reação veio rapidamente. A administração classificou a empresa como um “supply chain risk”, um rótulo normalmente reservado a adversários estrangeiros e que nunca havia sido aplicado publicamente a uma empresa americana. Poucas horas depois, a OpenAI assumiu o contrato. A Anthropic, por sua vez, entrou com um processo para impedir que o Pentágono a incluísse nessa lista. E essa história ainda está longe de terminar.
Mas a pergunta que ficou no ar é simples: quantos líderes estariam dispostos a abrir mão de um contrato de US$ 200 milhões para preservar os limites éticos de sua própria tecnologia?
Poucos teriam a coragem de tomar essa decisão. Mas poucos colheriam seus frutos também.
Dois dias depois, Claude se tornou o aplicativo número 1 do país. Mensagens como “you give us courage” e “keep going” apareceram escritas com giz do lado de fora dos escritórios da empresa em San Francisco. Até a cantora Katy Perry publicou um screenshot de sua assinatura do Claude Pro, acompanhado de um coração e da palavra “done”.
Sim, a decisão teve um custo imediato. A Anthropic perdeu um contrato de US$ 200 milhões e entrou em conflito direto com o Secretário de Defesa dos Estados Unidos, Pete Hegseth. Mas também validou uma tese cada vez mais relevante na era da Inteligência Artificial: posicionamento ético não é apenas responsabilidade, é vantagem competitiva.
Quando o CEO de uma empresa de IA reconhece os riscos inerentes ao uso de sua própria tecnologia e estabelece limites claros para ela, envia um sinal poderoso ao mercado. Um sinal de que decisões não podem ser guiadas apenas por incentivos comerciais ou por ganhos de curto prazo, mas também por um princípio cada vez mais central: confiança.
Se a Inteligência Artificial está se tornando infraestrutura de poder, a confiança, construída a partir de princípios claros e limites bem definidos, passa a ser o verdadeiro diferencial dos líderes de tecnologia.
Eu sei que o episódio envolvendo a Anthropic pode parecer distante da realidade da maioria das empresas. Afinal, poucos líderes precisam tomar decisões sobre contratos militares de centenas de milhões de dólares. Mas o princípio em jogo é exatamente o mesmo que começa a surgir no cotidiano das organizações.
Considere o caso de um banco que utiliza Inteligência Artificial para aprovar ou negar crédito. Se a instituição não consegue explicar por que determinado cliente foi recusado, o problema não é apenas técnico, é um problema de confiança. O mesmo ocorre quando dados sensíveis são utilizados sem transparência ou sem governança adequada. Nesse caso, o risco deixa de ser apenas regulatório. Torna-se reputacional. E, cada vez mais, estratégico.
O mesmo vale para seguradoras que precificam risco com modelos opacos, para plataformas digitais que recomendam conteúdos de baixo valor gerados pela IA, o chamado AI slop, ou para empresas que utilizam algoritmos enviesados para selecionar candidatos a vagas.
Quando decisões automatizadas não são explicáveis, e não carregam o peso da consciência humana, a percepção de injustiça tende a crescer. E a confiança, uma vez abalada, é extremamente difícil de reconstruir.
Como mostram os dados do Edelman Trust Barometer, a confiança em empresas de IA já é um desafio. Mas existe uma camada adicional, menos discutida.
Os líderes de tecnologia não enfrentam essa crise de confiança apenas na relação com clientes e usuários. Cada vez mais, ela também aparece dentro das próprias organizações.
Durante décadas, a área de Tecnologia deteve um quase monopólio do conhecimento técnico dentro das empresas. Desenvolver software era caro, complexo e dependia de especialistas escassos. Esse cenário criava altas barreiras de entrada, e consolidava o poder interno de funções como CTO e CIO.
Hoje, essa realidade começa a mudar. Com ferramentas low-code e no-code, como Lovable, e com sistemas de IA capazes de escrever código, prototipar produtos e automatizar fluxos inteiros, outras áreas da empresa passaram a criar suas próprias soluções digitais.
Equipes de marketing podem lançar landing pages sofisticadas em minutos; operações podem automatizar processos com agentes de IA; e áreas de RH conseguem construir dashboards preditivos sem depender de longos ciclos de desenvolvimento.
Se diferentes áreas conseguem agora construir produtos digitais por conta própria, o que diferencia a área de Tecnologia? A resposta não está mais apenas na competência técnica, mas na confiança.
Confiança de que os dados estão protegidos, de que a arquitetura tecnológica é robusta e de que existem mecanismos claros de governança. Confiança de que a Inteligência Artificial está sendo usada de forma ética e responsável, e de que decisões automatizadas podem ser explicadas.
Esse novo contexto transforma profundamente o papel do líder de tecnologia. Ele deixa de ser apenas o guardião do código e passa a atuar como guardião da confiança digital da organização.
Isso significa que sua relevância não se baseia apenas em conhecimento técnico. Cada vez mais, ela depende também de habilidades humanas: comunicação clara para traduzir complexidade, colaboração para cocriar soluções com outras áreas, empatia para compreender as preocupações de clientes e colaboradores, capacidade de influenciar sem autoridade hierárquica, e coragem para estabelecer limites éticos mesmo sob pressão comercial.
Foi exatamente o que fez Dario Amodei. Os US$ 16 milhões em anúncios no Super Bowl pediam confiança, mas abrir mão de US$ 200 milhões foi o que realmente a conquistou.
É uma lição simples: confiança não se constrói com campanhas, mas com decisões, e em um mundo em que qualquer área pode “construir tecnologia”, o verdadeiro ativo estratégico deixa de ser o algoritmo em si. Passa a ser a confiança nos humanos que o desenvolvem, treinam e decidem como utilizá-lo.


