A administração pública global atravessa um ponto de inflexão impulsionado de forma irreversível pela transformação digital. O volume massivo de dados gerados pela gestão de políticas públicas e contratos governamentais tornou as ferramentas tradicionais de fiscalização, historicamente baseadas em amostragem, e insuficientes para garantir uma supervisão que seja, ao mesmo tempo, abrangentes e tempestivas. É nesse cenário de complexidade crescente que a Inteligência Artificial (IA) emerge como a fronteira tecnológica decisiva, prometendo redefinir a auditoria governamental com uma capacidade analítica preditiva e em larga escala.
De acordo com estudos recentes publicados na MDPI (2025), essa promessa de eficiência máxima é indissociável de riscos sistêmicos que não podem ser ignorados. Vieses algorítmicos, a opacidade inerente a certos modelos de aprendizado de máquina e possíveis falhas na prestação de contas representam ameaças diretas aos pilares da governança democrática. Diante dessa dualidade, surge um questionamento fundamental: como os órgãos de controle podem adotar a IA para potencializar sua eficácia sem comprometer a transparência e os direitos fundamentais? A resposta reside na construção de uma arquitetura que harmonize a inovação técnica com o rigor ético e jurídico.
O paradigma do espelho retrovisor
O modelo tradicional de auditoria de dados, ainda predominante em muitas instituições, baseia-se em regras determinísticas e consultas estruturadas. Ferramentas como SQL, cruzamentos de bases de dados e análise de indicadores estáticos funcionam como um espelho retrovisor, ou seja, ver com clareza o que aconteceu, desde que o evento esteja mapeado em um campo estruturado. Essas ferramentas são excelentes para detectar erros aritméticos ou omissões em colunas específicas, mas falham ao tentar compreender a semântica de um contrato ou a intenção por trás de uma cláusula atípica.
As limitações desse modelo tornaram-se evidentes com a sofisticação das fraudes e a complexidade dos editais modernos. A dependência de amostras, necessária quando o processamento humano é o gargalo, cria “zonas de sombra” nas quais irregularidades podem florescer sem detecção. Além disso, a rigidez desses sistemas impede que eles aprendam com novos padrões sem uma intervenção humana constante para atualizar as regras de negócio.
Modelos internacionais e a lição da prudência
A jornada de implementação da IA no controle externo não segue um roteiro único, revelando arquétipos que oferecem lições valiosas sobre o equilíbrio entre inovação e aversão ao risco. O modelo britânico, documentado pelo National Audit Office (NAO), destaca-se por uma cautela notável. Embora o Reino Unido possua ambições de liderança global em IA, a realidade prática no setor público ainda é incipiente: uma pesquisa de 2024 indicou que apenas 37% dos órgãos governamentais implementaram alguma forma de IA. Essa ênfase extrema na mitigação de riscos legais e de segurança pode gerar um efeito colateral de “paralisia da governança”, onde a busca por um modelo de gestão perfeito acaba por inibir a experimentação prática e a aprendizagem institucional.
Em contrapartida, a França apresenta um modelo mais pragmático e orientado a resultados. A Cour des Comptes já reporta economias mensuráveis, como os 20,4 milhões de euros economizados em 2022 pelo Ministério da Economia e Finanças com o uso de sistemas inteligentes. Contudo, a instituição francesa oferece uma visão crítica, alertando para o “efeito rebote da eficiência algorítmica”, no qual a otimização de uma tarefa, como a detecção automática de fraudes, pode aumentar drasticamente a carga de trabalho na verificação manual obrigatória dos casos detectados. Essa análise levou à proposição do conceito de “IA Frugal”, uma abordagem que defende a sobriedade no uso de dados e modelos, visando não apenas à eficiência, mas também à robustez dos sistemas e à soberania tecnológica do Estado.
No topo dessa pirâmide regulatória, a União Europeia estabeleceu um paradigma com o EU AI Act, a legislação mais ambiciosa sobre o tema até hoje. Sua principal característica é a abordagem baseada em risco, que impõe obrigações rigorosas a sistemas de “alto risco”, como aqueles com potencial para impactar direitos fundamentais. A implicação mais transformadora para o controle externo é que essa norma cria, na prática, a “auditoria de IA” como uma nova e fundamental competência. Os órgãos de controle europeus deixam de ser apenas usuários para se tornarem auditores da conformidade dos sistemas de IA, exigindo investimentos profundos em novas capacidades técnicas e metodológicas.
A revolução do contexto com o advento do RAG
Nesse contexto, a grande mudança técnica ocorre com a introdução da Inteligência Artificial Generativa, especialmente por meio da técnica de Geração Aumentada por Recuperação (Retrieval-Augmented Generation – RAG). Diferente dos modelos tradicionais que buscam apenas “o quê”, o RAG permite buscar o “porquê” e o “como” dentro de vastas bibliotecas de documentos não estruturados, como PDFs, relatórios e processos eletrônicos.
Instituições brasileiras, como o Tribunal de Contas da União (TCU) e o Tribunal de Contas do Estado de São Paulo (TCESP), lideram essa vanguarda com ferramentas como o ChatTCU e a ANIA. A técnica RAG funciona como uma “ponte” entre o vasto conhecimento de um Grande Modelo de Linguagem (LLM) e a base de conhecimento específica e confiável de um tribunal, como sua jurisprudência e relatórios técnicos. Ao ancorar as respostas em fontes oficiais, o sistema reduz drasticamente o risco de “alucinações”.
Essa tecnologia permite que um servidor “converse” com um processo eletrônico de forma orgânica e integrada, solicitando resumos, identificando contradições entre depoimentos ou buscando precedentes jurídicos em segundos.
Essas iniciativas inserem-se em um contexto nacional em que 60% dos Tribunais de Contas já implementaram soluções de IA. No entanto, um levantamento do Instituto Rui Barbosa (2024) evidencia desafios: a falta de conhecimento técnico especializado é apontada por 70% das instituições como a principal barreira ao progresso.
O dilema da caixa-preta e a necessidade de explicabilidade
Apesar dos benefícios, a tensão mais profunda está no que pode ser chamado de “dilema da accountability algorítmica”. Os sistemas de IA mais eficazes para detectar fraudes complexas são, frequentemente, os mais opacos. Modelos baseados em redes neurais profundas operam como “caixas-pretas”, dificultando o rastreio da lógica que levou a uma conclusão. Essa opacidade colide com princípios fundamentais do Estado de Direito, como a motivação das decisões e o direito à ampla defesa. Se um tribunal baseia uma sanção em um achado gerado por um sistema opaco, como pode fornecer ao gestor uma justificativa contestável conforme exige o devido processo legal?
Pesquisas de Elliott e MacCarthaigh (2025) destacam como sistemas opacos representam o maior desafio à transparência. A resposta técnica e metodológica para este impasse é a IA Explicável (Explainable AI – XAI). Técnicas como SHAP (SHapley Additive exPlanations) e LIME são projetadas para fornecer justificativas compreensíveis para decisões de modelos complexos. Em vez de um alerta genérico, um sistema com XAI indica quais variáveis específicas, como o valor da transação ou cláusulas atípicas, contribuíram para o resultado. A adoção da XAI não é apenas uma boa prática técnica; é um imperativo para legitimar o uso da IA em decisões de controle e fortalecer a materialidade probatória dos achados.
Governança e a dupla responsabilidade dos tribunais
A arquitetura regulatória global está se moldando rapidamente para lidar com esses desafios. Como vimos, o EU AI Act estabelece obrigações rigorosas para sistemas de “alto risco”, exigindo governança de dados e supervisão humana. No Brasil, a Lei nº 14.133/2021 e o Projeto de Lei nº 2338/2023 caminham na mesma direção, propondo um modelo de governança baseado em risco.
Isso cria o que podemos chamar de “responsabilidade dual” para os Tribunais de Contas. Por um lado, eles devem ser os primeiros a garantir que seus próprios sistemas, como o ChatTCU e a ANIA, cumpram requisitos éticos e de transparência. Por outro, assumem o papel de auditores da conformidade dos sistemas de IA adquiridos pelo restante da administração pública. Eles deixam de ser apenas usuários para se tornarem os guardiões da integridade algorítmica do Estado.
Conclusão: a liderança na era da inteligência
A jornada para uma auditoria aumentada pela Inteligência Artificial é um caminho sem volta. A análise demonstra que não existe um modelo único, mas sim um espectro de abordagens que equilibram inovação e prudência. O Brasil, com o pioneirismo do TCU e do TCESP, demonstra que é possível desenvolver soluções internas que respeitem as particularidades do controle externo. Contudo, o progresso tecnológico precisa ser acompanhado por um investimento massivo em capacitação e gestão da mudança. A formação do servidor do século XXI deve integrar ciência de dados, direito digital e ética algorítmica. O objetivo não é transformar auditores em programadores, mas sim em avaliadores críticos que saibam questionar os resultados da máquina e identificar vieses. Afinal, a IA deve ser vista como uma ferramenta de aumento das capacidades humanas, não como um substituto para a responsabilidade institucional.
A conclusão central é que o desafio mais crítico não é técnico, mas sim de governança e direito: como conciliar a eficácia analítica com a accountability robusta. A solução para esse dilema definirá a legitimidade da auditoria governamental nas próximas décadas. Os órgãos que liderarem esse processo com transparência e rigor ético estarão verdadeiramente preparados para proteger o interesse público na era digital.
A auditoria pública entrou em uma nova fase com o uso de Inteligência Artificial Generativa e a técnica de Geração Aumentada por Recuperação (Retrieval-Augmented Generation) na fiscalização. Essas tecnologias permitem analisar grandes volumes de dados e documentos não estruturados, como contratos, relatórios e processos, com mais agilidade e precisão.
No Brasil, iniciativas como ChatTCU e ANIA mostram como tribunais já usam IA para resumir processos, localizar precedentes e identificar inconsistências. Ao mesmo tempo, o avanço exige atenção à transparência, explicabilidade e governança.
Acesse o artigo no site da MIT Technology Review Brasil. Link na bio @mittechreviewbr




