A adoção acelerada da Inteligência Artificial recolocou a tecnologia no centro das agendas organizacionais. O problema é que, em parte relevante dos casos, o debate ainda permanece capturado por uma lógica de aquisição e fascínio instrumental, como se a simples incorporação de ferramentas avançadas bastasse para produzir eficiência, qualidade decisória e ganho de produtividade. Esse raciocínio ignora os fatores que efetivamente condicionam a geração de valor: processos bem desenhados, governança proporcional ao risco e equipes capazes de operar, supervisionar e contestar a tecnologia quando necessário.
Nessas condições, sobretudo quando a organização não define com clareza o problema a ser resolvido, não redesenha os fluxos de trabalho e não prepara adequadamente suas equipes, tende a surgir um descompasso entre promessa técnica e resultado organizacional. A literatura empírica recente sugere que os ganhos associados ao uso da IA dependem menos da mera disponibilidade da tecnologia e mais de sua inserção em fluxos de trabalho estruturados, da delimitação das tarefas em que os modelos realmente agregam valor e da atuação de profissionais aptos a operá-los, supervisioná-los e corrigir seus erros.
Da promessa técnica ao uso real
Essa distinção entre capacidade técnica e uso organizacional efetivo aparece com clareza em estudo recente da Anthropic sobre impactos da IA no mercado de trabalho. O relatório introduz a noção de “exposição observada”, métrica que compara a capacidade teórica da IA com seu uso efetivo nas ocupações. Os dados indicam que a adoção real permanece abaixo do potencial técnico atribuído a essas ferramentas.
A discrepância é particularmente visível no setor de computação e matemática. Embora se possa supor elevada viabilidade teórica de automação, o uso profissional efetivamente observado no estudo alcançou apenas cerca de 33% dessas tarefas. Mesmo em ocupações fortemente expostas à automação baseada em IA, como desenvolvimento de software e atendimento ao cliente, a substituição integral do trabalho humano por máquinas não se materializou na escala sugerida pelo ciclo recente de expectativas tecnológicas. Segundo o mesmo estudo, também não se verificou, desde o final de 2022, aumento sistemático do desemprego entre os trabalhadores mais expostos, embora já se observem sinais iniciais de desaceleração na contratação de profissionais mais jovens nesses segmentos.
Esse descompasso entre capacidade teórica e adoção observada revela um problema central de desenho e gestão de processos. Muitas atividades que poderiam, em tese, ser executadas com apoio da IA não se convertem em uso efetivo por causa de restrições legais, exigências de integração entre sistemas e, sobretudo, necessidade de validação humana em etapas sensíveis. Embora a tecnologia possa tornar mais ágil a autorização de receitas médicas, esse processo continua condicionado a protocolos rigorosos e a decisões que exigem análise humana. A inovação, portanto, não se materializa pela simples introdução da ferramenta. Sem revisão do fluxo de trabalho e adaptação das rotinas de verificação, a tecnologia tende a ser subutilizada.
O problema não está na inexistência de capacidade técnica, mas na distância entre a capacidade disponível e as condições organizacionais necessárias para convertê-la em valor.
Risco, segurança e fator humano
A adoção apressada da “tecnologia pela tecnologia” também amplia a exposição das organizações a riscos de segurança da informação e a falhas operacionais. O International AI Safety Report 2026 observa que sistemas de IA de propósito geral vêm sendo adotados em ritmo acelerado, mas suas capacidades permanecem irregulares, ou jagged. Isso significa que esses sistemas podem superar especialistas humanos em determinados problemas complexos e, ao mesmo tempo, falhar em tarefas lógicas relativamente simples. Essa assimetria torna arriscada a confiança excessiva na tecnologia.
No campo da segurança cibernética, a IA explicita um dilema de uso dual. Relatórios de referência, como o Global Cybersecurity Outlook 2025 do Fórum Econômico Mundial, apontam aumento expressivo de ataques de engenharia social e phishing potencializados por IA. Os mesmos relatórios indicam que essas tecnologias vêm automatizando e escalando etapas relevantes da cadeia ofensiva, do reconhecimento à identificação de vulnerabilidades. Em paralelo, desenvolvedores e áreas de inteligência de ameaças relatam tentativas recorrentes de uso indevido de modelos comerciais por atores maliciosos, inclusive grupos vinculados a Estados.
Além dos ataques deliberados, há o risco de mau funcionamento sistêmico. Falhas de confiabilidade, como geração de informações falsas, erros de raciocínio básico e degradação de desempenho em contextos não familiares, já produziram danos reais. A introdução de agentes de IA eleva esse risco, porque falhas podem produzir efeitos concretos antes de haver tempo hábil para intervenção humana. Ignorar o redesenho de processos, com salvaguardas e pontos de auditoria manual, é, nesse contexto, uma escolha temerária.
Mas o risco não é apenas técnico. O terceiro pilar negligenciado na equação da transformação digital são as pessoas. A introdução de sistemas algorítmicos sem capacitação adequada e sem o necessário aculturamento das equipes produz riscos para a autonomia profissional e a qualidade do julgamento. O uso indiscriminado da IA pode alterar a forma pela qual os indivíduos se engajam cognitivamente com suas tarefas, com efeitos sobre a preservação, ao longo do tempo, de competências críticas ao trabalho.
Esse ponto se torna mais claro à luz de evidências empíricas recentes. Um estudo clínico multicêntrico publicado no The Lancet Gastroenterology & Hepatology observou que, após exposição prolongada a sistemas de apoio diagnóstico por IA, o desempenho de médicos em exames realizados sem o auxílio da ferramenta apresentou queda mensurável, com redução da taxa de detecção de adenomas. O achado não autoriza generalizações automáticas para toda a prática médica, mas sugere que a adoção acrítica dessas tecnologias pode induzir dependência funcional e enfraquecimento progressivo de habilidades perceptivas e decisórias relevantes ao exercício profissional. Sem o mapeamento prévio de seus efeitos sobre a aprendizagem, a autonomia técnica e o desenvolvimento intelectual dos colaboradores, a organização corre o risco de comprometer sua resiliência cognitiva e sua capacidade crítica.
Além disso, merece atenção o chamado viés de automação, situação em que o usuário atribui confiança excessiva à saída produzida pelo sistema e reduz sua disposição para confrontá-la com evidências divergentes. Em experimento randomizado com 2.784 participantes, observou-se que os usuários eram menos propensos a corrigir sugestões errôneas da IA quando a correção exigia esforço adicional. Como se trata de preprint, o resultado requer leitura cautelosa. Ainda assim, o risco não decorre apenas de falhas da máquina, mas também do enfraquecimento do discernimento humano diante dela.
Esse quadro se torna ainda mais sensível com a difusão de agentes autônomos no ambiente de trabalho. O relatório The State of AI in 2025: Agents, innovation, and transformation, da McKinsey, mostra que o uso organizacional de IA se expandiu e que parte das empresas já começa a experimentar ou escalar sistemas agênticos. O mesmo relatório indica, contudo, que os melhores resultados não decorrem da simples adoção da tecnologia, mas da combinação entre redesenho de fluxos de trabalho, validação humana e supervisão. Sem o pilar das pessoas adequadamente estruturado para preservar senso crítico, ceticismo profissional e responsabilidade decisória, a organização tende a deslocar a inteligência coletiva em favor de uma dependência tecnológica pouco reflexiva.
Governança, resiliência e valor sustentável
Superar esse modelo exige uma abordagem mais madura de governança e gestão de riscos. O alinhamento entre tecnologia, pessoas e processos não ocorre por inércia. Ele depende de arranjos institucionais, controles operacionais e mecanismos de supervisão capazes de integrar inovação, segurança e responsabilidade decisória.
Nesse contexto, a arquitetura de defense in depth, ou defesa em profundidade, oferece uma referência útil. Seu princípio é combinar múltiplas camadas independentes de salvaguardas técnicas, organizacionais e humanas, de modo que a falha de um controle específico não comprometa a integridade do sistema. Aplicada à IA, essa lógica se materializa em três frentes: treinamento e curadoria, com filtragem de dados nocivos, redução de conteúdos impróprios e técnicas de alinhamento; monitoramento e controle da implantação, com filtros de conteúdo, sandboxing e supervisão humana obrigatória em decisões críticas, segundo a lógica do human in the loop; e monitoramento do ecossistema, com relatórios de incidentes, rastreamento da proveniência de dados, identificação de conteúdo sintético, como marcas d’água, e avaliações contínuas de vulnerabilidades.
Essa mesma lógica aparece nos marcos recentes de segurança aplicados à IA de fronteira. O Preparedness Framework da OpenAI e a Responsible Scaling Policy da Anthropic adotam, com nomenclaturas diferentes, compromissos condicionais pelos quais o aumento de capacidades potencialmente perigosas deve acionar medidas adicionais de mitigação, restrição ou suspensão da implantação, caso os controles existentes não sejam considerados suficientes.
As projeções e cenários construídos pela OCDE até 2030 reforçam a necessidade dessa postura. A trajetória da IA permanece aberta, podendo variar desde uma desaceleração do progresso até uma aceleração capaz de produzir sistemas comparáveis, em determinadas tarefas cognitivas, a trabalhadores remotos de nível humano. Diante dessa amplitude de possibilidades, a questão central deixa de ser a previsão de um único futuro e passa a ser a construção de capacidade institucional para operar sob condições persistentes de incerteza tecnológica.
É nesse ponto que ganha relevo a noção de resiliência societal. Em termos organizacionais, ela corresponde à capacidade de resistir, absorver, recuperar-se e adaptar-se a choques produzidos pela tecnologia, sem perda substancial de controle e continuidade operacional. O AI Incidents and Hazards Monitor da OCDE reforça esse diagnóstico ao documentar incidentes e perigos associados à IA com base em fontes públicas. Esses registros não devem ser lidos de forma alarmista, mas bastam para demonstrar que a mera disponibilidade da ferramenta não assegura segurança, confiabilidade nem eficácia operacional.
As organizações que tenderão a se destacar na próxima década não serão as que adquirirem mais modelos ou agentes de IA, mas as que conseguirem integrá-los a uma arquitetura consistente de governança. Isso inclui protocolos de resposta a incidentes, mecanismos de rastreabilidade, critérios explícitos de validação humana, capacitação contínua das equipes e desenvolvimento de alfabetização em IA compatível com decisões de maior impacto. Sem essas condições, a adoção da tecnologia tende a ampliar complexidades, em vez de produzir valor.
A análise dos impactos da Inteligência Artificial no trabalho, na segurança da informação e na organização dos processos ajuda a desfazer a crença de que a tecnologia, por si só, constitui vetor autossuficiente de inovação. A discrepância entre o que a IA pode realizar em teoria e a fração relativamente limitada de automação que se observa na prática é sintoma direto da negligência em relação a processos e pessoas. Limitações operacionais, exigências de auditoria humana, riscos de degradação de competências cognitivas, viés de automação e ampliação da superfície de ataque cibernético compõem um conjunto de desafios que nenhum algoritmo resolve isoladamente.
A vanguarda da transformação digital exige planejamento estratégico, governança e disciplina de execução. A tecnologia deve atuar como ferramenta habilitadora, colocada a serviço de um problema de negócio claramente definido, operada por pessoas capacitadas, céticas e autônomas, e inserida em fluxos de trabalho redesenhados para assegurar controle, segurança e responsabilidade. Quando o fascínio pela inovação suplanta o rigor da implementação estruturada, o valor prometido pela revolução da IA tende a permanecer mais no plano da expectativa do que no da realidade.
Resumo: Sem redesenho de processos, governança proporcional ao risco e equipes capazes de supervisionar a tecnologia, a IA tende a ampliar vulnerabilidades e a converter promessa técnica em valor organizacional apenas parcial.


