Agentes autônomos: o que esperar quando a IA começa a agir por conta própria
Inteligência artificial

Agentes autônomos: o que esperar quando a IA começa a agir por conta própria

À medida que máquinas começam a tomar decisões, precisaremos decidir o que deve (ou não) ser delegado a elas.

Imagine que você é um dos 1,5 milhão de funcionários da maior rede varejista online do mundo. Um dia, em uma carta pública, o CEO da companhia faz uma previsão reveladora: nos próximos anos, a expectativa é que o número de funcionários seja reduzido. Não por uma crise financeira ou pelo encerramento de projetos, mas pelo ganho de eficiência trazido pela Inteligência Artificial e pelos agentes autônomos, sistemas que, como o nome sugere, são capazes de executar tarefas por conta própria.

O exemplo descrito não é hipotético. Trata-se da Amazon, empresa fundada por Jeff Bezos e comandada atualmente por Andy Jassy. No comunicado, publicado em junho, o executivo detalhou a visão de futuro da empresa diante do avanço da IA e fez um chamado para que os funcionários se capacitem nessa área para se manterem relevantes. “Muitos desses agentes ainda não foram desenvolvidos, mas não se engane, eles estão chegando, e chegando rápido”, escreveu.

Assim como define o CEO no texto, os agentes autônomos são “como sistemas de software que usam IA para executar tarefas em nome de usuários ou outros sistemas”. Diferentemente dos modelos de IA generativa mais comuns, nos quais o usuário insere comandos e recebe os resultados, esses sistemas são projetados para agir de forma independente.

Ao receber um objetivo ou uma instrução inicial, eles são capazes de planejar os passos necessários, tomar decisões, interagir com ferramentas ou bancos de dados e, então, executar as tarefas de ponta a ponta. Enquanto um chatbot tradicional responde a perguntas sobre serviços bancários, por exemplo, um agente pode monitorar as finanças do cliente, identificar uma cobrança incorreta, acessar os canais necessários para abrir um chamado e acompanhar seu andamento.

Entre a adoção desses assistentes para tarefas pontuais e a implementação em larga escala, automatizando funções inteiras, como projeta a Amazon, ainda há um caminho a se percorrer. Mas essa transição já começou e deve mudar de forma profunda o modo como indivíduos e empresas irão trabalhar, produzir e interagir nos próximos anos.

Da evolução à disseminação

O conceito de agente não é novidade na computação. Desde os anos 1990, já existiam programas capazes de realizar tarefas de forma automatizada. Entre suas funções estavam executar comandos pré-definidos, detectar anomalias ou simular cenários. Porém, esses sistemas dependiam de regras rígidas, exigindo que fossem desenvolvidos e treinados para tarefas muito específicas.

Com o avanço da IA, esses agentes ganharam uma nova camada de autonomia. Ao serem treinados com grandes volumes de dados não estruturados, deixaram de executar apenas comandos isolados para planejar, decidir e agir de forma contínua e responsiva, inclusive em cenários que não foram programados. Além disso, a possibilidade de interagir com esses sistemas por meio de linguagem natural democratizou seu uso, permitindo que profissionais sem conhecimento técnico também se beneficiem da tecnologia.

Assim como ocorreu com outras ferramentas de IA, essa tecnologia se difundiu inicialmente nos bastidores corporativos e agora começa a chegar às mãos dos usuários comuns. Um exemplo é a Manus, plataforma desenvolvida pela empresa chinesa Butterfly Effects. Lançado em março deste ano, o site se popularizou ao oferecer uma espécie de marketplace de agentes autônomos, com versões capazes de construir um site do zero, analisar ações de uma empresa ou planejar uma viagem, por exemplo.

Empresas de tecnologia já consolidadas também investiram fortemente nessa área. A Microsoft, por exemplo, criou um ecossistema que inclui desde agentes voltados à produtividade, como os que operam dentro do Copilot Studio, até agentes especializados em segurança, dados e desenvolvimento. Já a Salesforce investiu no Agentforce, um agente integrado ao seu CRM para executar tarefas de atendimento, vendas e marketing. Segundo a empresa, 84% das demandas recebidas no seu site de suporte ao cliente já são resolvidas por esses sistemas, e apenas 2% requerem intervenção humana.

Outra vertente desse movimento consiste em oferecer a infraestrutura necessária para que empresas desenvolvam, personalizem e incorporem a tecnologia. A OpenAI, desenvolvedora do ChatGPT, por exemplo, oferece ferramentas para que companhias criem seus próprios agentes, com APIs que permitem automatizar desde buscas na web até a execução de tarefas complexas. Já o chinês Ant Group lançou um protocolo que permite que agentes se integrem diretamente a plataformas de pagamento como o Alipay, automatizando transações e serviços financeiros.

Uma pesquisa do Distrito com líderes de 31 empresas brasileiras mostrou que 74% já testaram aplicações de agentes autônomos e 67% os utilizam em seus processos internos, sobretudo em atendimento ao cliente, automação de processos e inteligência de dados. Em nível global, um relatório da Deloitte estima que, ainda em 2025, um quarto das empresas que já usam IA generativa lançará pilotos ou provas de conceito relacionados a agentes autônomos. A projeção é que essa parcela chegue a 50% até 2027.

O interesse das empresas por essa tecnologia vem se refletindo nos números do mercado. Nos últimos dois anos, mais de US$ 2 bilhões foram investidos em startups focadas em IA agêntica, especialmente as voltadas a aplicações corporativas, segundo um levantamento do CB Insights. De acordo com projeções da Global Market Insights, o mercado de agentes autônomos e IA autônoma deve saltar de US$ 6,8 bilhões em 2024 para US$ 93,7 bilhões até 2034, impulsionado por uma taxa de crescimento anual composta (CAGR) de 30,3%.

Um novo leque de possibilidades — e desafios

Além de assumir funções específicas, os agentes podem trabalhar de forma coordenada, formando o que se chama de sistemas multiagentes. Nesse contexto, diferentes modelos especializados colaboram entre si para resolver problemas mais complexos, dividindo tarefas, compartilhando informações e refinando resultados, tal qual uma equipe de trabalho. É justamente nesse nível de coordenação e escala que os agentes começam a ocupar espaços mais estratégicos nas empresas, e a desafiar a divisão tradicional entre a inteligência humana e a artificial.

Também é nesse cenário que os desafios e os riscos se tornam mais críticos. Como destaca uma reportagem do Business Insider, muitos agentes autônomos utilizados hoje ainda enfrentam dificuldades básicas, como manter a coerência ou lidar com situações imprevistas. Um modelo estatístico elaborado pela empresa Patronus AI mostrou que, em tarefas com múltiplas etapas, os erros se acumulam de forma exponencial: uma taxa de erro de 1% por ação pode levar a uma chance de falha de 63% após 100 etapas.

Um experimento conduzido por pesquisadores da Universidade Carnegie Mellon também colocou essas questões à prova ao criar uma empresa fictícia operada inteiramente por agentes de IA. O modelo mais bem-sucedido conseguiu concluir apenas 24% das tarefas atribuídas a ele, enquanto outros sequer atingiram 2%. Os pesquisadores identificaram falhas frequentes de bom senso, decisões arbitrárias e uma tendência a criar “atalhos” que comprometem o resultado. Como exemplo, citam o momento em que um dos agentes não consegue localizar a pessoa certa para fazer perguntas, e, como solução, renomeia outro usuário para realizar a interação.

Exemplos como esse ilustram um dos desafios e dilemas que temos pela frente, conforme novas funções e decisões são delegadas à inteligência artificial. Em 2004, no livro The Future of Work, o professor Thomas Malone já antecipava a transição de modelos de trabalho baseados em controle hierárquico para estruturas mais distribuídas, com maior autonomia e coordenação. Essa visão ganha novos significados diante da ascensão de sistemas que não apenas executam tarefas, mas precisam interpretá-las. Na prática, será preciso abastecê-los com uma base que vai além do volume de informações: envolve um repertório de critérios, valores e modelos mentais capazes de orientá-los.

Em um artigo publicado no MIT Sloan Management Review, os pesquisadores Michael Schrage e David Kiron trazem uma provocação nesse sentido. Relembram que, em 2011, o investidor Marc Andreessen declarou que o “software estava devorando o mundo”, à medida que a tecnologia provocava disrupção nas indústrias. Seis anos depois, Jensen Huang, CEO da Nvidia, propôs uma atualização, afirmando que “a IA está devorando o software”. Agora, os autores apontam uma nova virada: “a filosofia está devorando a IA”.

Segundo eles, à medida que a inteligência artificial passa a tomar decisões, criar, planejar e interagir, são os fundamentos filosóficos, como valores, raciocínio e ética, que começam a moldar seu funcionamento e impacto. A questão, dizem eles, não é se isso acontecerá, mas se líderes estarão conscientes e preparados para usar a filosofia como um recurso de geração de valor.

As decisões que precisaremos tomar

Apesar das limitações atuais, os agentes autônomos já demonstram seu potencial de disseminação. Não é difícil imaginar um futuro em que cada pessoa tenha ao seu lado um assistente virtual com capacidade para entender suas rotinas, antecipar demandas e executar tarefas de forma proativa. Empresas poderão contar com verdadeiras “equipes digitais” especializadas que colaboram entre si e com humanos. Por fim, os agentes pessoais poderão interagir com os corporativos, trazendo uma nova camada às relações de consumo.

Em um relatório de 2024, a McKinsey já definia os agentes como “a próxima fronteira da IA generativa”, com potencial de gerar ganhos expressivos de produtividade e inovação. Em um artigo publicado no site do Fórum Econômico Mundial, Benjamin Larsen e Cathy Li, líderes da área de IA na organização, também destacaram a possibilidade de utilizá-los para enfrentar desafios sociais complexos, como os de saúde pública e educação.

A perspectiva de um mundo permeado por esses agentes, porém, também acende uma série de alertas. Muito deles já vêm à tona quando falamos da automação de um modo mais amplo – como os impactos sociais e econômicos da substituição de empregos, os prejuízos ambientais gerados por servidores de IA, entre outros aspectos discutidos no meu último artigo. Mas há, ainda, desafios específicos dessa nova face da evolução tecnológica.

Larsen e Li chamam atenção, por exemplo, para os riscos de agentes autônomos desenvolverem comportamentos inesperados, manipularem regras pré-definidas, interpretarem mal seus objetivos em contextos novos ou apresentarem um alinhamento aparente durante os testes, enquanto mantêm objetivos internos diferentes. Esses riscos se amplificam em sistemas multiagentes, nos quais a coordenação é mais complexa. Para mitigá-los, os autores defendem a criação de protocolos claros de interoperabilidade, testes rigorosos, transparência nas decisões e monitoramento contínuo dos comportamentos.

Outro aspecto importante será a transparência na relação desses sistemas com humanos. Esse tipo de preocupação já se reflete, por exemplo, no AI Act, legislação proposta pela Comissão Europeia para regulamentar o uso e desenvolvimento de inteligência artificial na União Europeia. O artigo 50 do texto prevê, dentre outras medidas, que as pessoas sejam “informadas de que estão interagindo com um sistema de IA, a menos que isso seja óbvio a partir do contexto e das circunstâncias de utilização.”

Em um artigo publicado na Forbes, Nizan Geslevich Packin, professora do departamento de Direito da Baruch College, ainda expressa inquietação com outro ponto: o da acessibilidade. “À medida que as empresas migram para interações automatizadas com os clientes, o suporte humano está se tornando cada vez mais um serviço premium — acessível apenas para aqueles que podem e pagam mais. (…) Populações vulneráveis, incluindo idosos, pessoas com deficiência ou economicamente desfavorecidos, correm o risco de serem deixadas para trás em um sistema projetado para priorizar a eficiência em detrimento do cuidado”, escreve.

À medida que as possibilidades de aplicação dos agentes autônomos se expandem, a questão central deixará de ser apenas “o que pode ser automatizado?” para se tornar “o que deve ser?”. E conforme as máquinas se equiparam – e nos ultrapassam – em novas habilidades, caberá a nós entender quais são, de fato, as capacidades e características que nos diferenciam. Como escrevem Michael Schrage e David Kiron: “De qualquer forma — para o bem e para o mal —, a filosofia está devorando a IA.”

Último vídeo

Nossos tópicos