Os agentes são a maior tendência em tecnologia no momento. Empresas líderes como Google DeepMind, OpenAI e Anthropic estão competindo para aprimorar os modelos de linguagem ampla, adicionando a capacidade de realizar tarefas de forma autônoma. Conhecida como IA agentiva no jargão da indústria, essa tecnologia rapidamente se tornou o novo centro das atenções no Vale do Silício. De Nvidia a Salesforce, todos falam sobre como os agentes vão transformar o setor.
“Em 2025, acreditamos que veremos os primeiros agentes de IA ‘entrarem no mercado de trabalho’ e mudarem materialmente os resultados das empresas”, afirmou Sam Altman em um post recente no blog.
De maneira ampla, um agente é um sistema de software que realiza tarefas, geralmente com supervisão mínima ou inexistente. Quanto mais complexa a tarefa, mais inteligente o agente precisa ser. Para muitos, os modelos de linguagem ampla já são suficientemente avançados para alimentar agentes capazes de executar uma variedade de tarefas úteis, como preencher formulários, buscar uma receita e adicionar os ingredientes ao carrinho de compras online, ou usar um mecanismo de busca para realizar pesquisas rápidas antes de uma reunião e produzir um resumo em tópicos.
Em outubro, a Anthropic apresentou um dos agentes mais avançados até agora: uma extensão do Claude, seu modelo de linguagem ampla, chamada computer use. Como o nome sugere, ela permite que o Claude use um computador de maneira semelhante a uma pessoa, movendo o cursor, clicando em botões e digitando texto. Em vez de apenas conversar com o Claude, você pode agora pedir que ele realize tarefas na tela por você.
A Anthropic destaca que o recurso ainda é trabalhoso e sujeito a erros. Contudo, já está disponível para alguns testadores, incluindo desenvolvedores de empresas como DoorDash, Canva e Asana.
O computer use oferece um vislumbre do futuro dos agentes. Para saber mais sobre o que vem por aí, a MIT Technology Review conversou com Jared Kaplan, cofundador e cientista-chefe da Anthropic. Aqui estão quatro maneiras como os agentes vão melhorar ainda mais em 2025.
1. Agentes usarão ferramentas de forma mais eficiente
“Eu vejo dois eixos para pensar no que a IA é capaz de fazer. Um é sobre a complexidade da tarefa que o sistema pode realizar. E à medida que os sistemas de IA ficam mais inteligentes, estão ficando melhores nesse aspecto. Mas outro eixo importante é sobre quais ambientes ou ferramentas a IA pode usar.
Se voltarmos quase 10 anos no tempo, ao [modelo de IA da DeepMind para o Go, um jogo de tabuleiro] AlphaGo, tínhamos sistemas de IA que eram super-humanos. Mas, se tudo o que você pode fazer é jogar Go, isso é um ambiente muito restrito. Não é realmente útil, mesmo sendo muito inteligente. Com os modelos de texto, depois modelos multimodais, agora o uso de computador — e, talvez no futuro, robótica — estamos caminhando para trazer a IA a diferentes situações e tarefas, tornando-a útil.
Ficamos empolgados com o computer use por essa razão. Até recentemente, era necessário fornecer um comando muito específico aos modelos de linguagem ampla, com ferramentas específicas, restringindo-os a um ambiente limitado. O que vejo é que o computer use provavelmente melhorará rapidamente, tanto na realização de tarefas diferentes e mais complexas quanto na capacidade de reconhecer quando comete erros ou quando há uma questão crítica e precisa solicitar feedback ao usuário.”
2. Agentes entenderão melhor o contexto
“Para ser útil, o Claude precisa aprender o suficiente sobre sua situação específica e as restrições sob as quais você opera. Isso inclui coisas como o papel que você desempenha, os estilos de escrita que você prefere ou as necessidades específicas de sua organização.
Acredito que veremos melhorias nessa área, nas quais o Claude poderá buscar informações em documentos, no Slack, etc., e realmente aprender o que é útil para você. Isso ainda é subestimado em agentes. É essencial para os sistemas serem não apenas úteis, mas também seguros, cumprindo o que se espera deles.
Outro ponto é que muitas tarefas não exigem muito raciocínio do Claude. Você não precisa ‘pensar por horas’ antes de abrir o Google Docs. Acho que veremos mais do que apenas raciocínio: a aplicação do raciocínio quando for realmente útil e importante, mas também a habilidade de evitar perder tempo quando não for necessário.”
3. Agentes melhorarão os assistentes de programação
“Queríamos lançar uma versão beta inicial do computer use para desenvolvedores, a fim de obter feedback enquanto o sistema ainda estava em um estágio relativamente primitivo. À medida que esses sistemas melhorarem, poderão ser mais amplamente usados e realmente colaborar em diferentes atividades.
“Empresas como DoorDash, The Browser Company e Canva estão experimentando interações com navegadores e projetando esses fluxos com a ajuda da IA.
“Minha expectativa é que também vejamos melhorias significativas nos assistentes de programação. Isso tem sido muito empolgante para os desenvolvedores. Há um grande interesse em usar o Claude 3.5 para programação, indo além do preenchimento automático de código, como era há alguns anos. Ele realmente entende o que está errado no código, depura, executa, vê o que acontece e corrige.”
4. Agentes precisarão ser mais seguros
“Fundamos a Anthropic porque prevíamos que a IA iria progredir muito rapidamente e [acreditávamos] que, inevitavelmente, preocupações com segurança se tornariam relevantes. Acho que isso vai se tornar ainda mais evidente neste ano, à medida que esses agentes se integrem mais ao trabalho que fazemos. Precisamos estar preparados para desafios, como a injeção de comandos maliciosos (prompt injection).
[Prompt injection é um ataque no qual um comando malicioso é inserido em um modelo de linguagem ampla de formas que seus desenvolvedores não previram ou não intencionaram. Um exemplo seria adicionar o comando a sites que os modelos possam visitar.]
“O prompt injection é provavelmente uma das principais preocupações que estamos considerando no uso mais amplo de agentes. Isso é especialmente importante para o computer use, e estamos trabalhando muito ativamente nisso, porque, se ele for implantado em grande escala, pode haver sites maliciosos tentando convencer o Claude a fazer algo que ele não deveria.
“Com modelos mais avançados, os riscos aumentam. Temos uma política robusta de escalabilidade: à medida que os sistemas de IA se tornam mais capazes, precisamos estar realmente preparados para evitar que eles sejam mal utilizados. Por exemplo, se pudessem ajudar terroristas.
“Estou muito empolgado com como a IA será útil — na verdade, está acelerando bastante nosso trabalho internamente na Anthropic, com pessoas usando o Claude de várias formas, especialmente em programação. Mas, claro, haverá muitos desafios também. Vai ser um ano interessante.”
Por:Melissa Heikkilä
Melissa é repórter sênior da MIT Technology Review, cobrindo assuntos ligados à Inteligência Artificial e como ela está mudando nossa sociedade.
Will é editor sênior de IA na MIT Technology Review, cobrindo assuntos sobre novas pesquisas, tendências e pessoas por trás dela