Os modelos de IA generativa têm se destacado na conversação e na criação de imagens, vídeos e músicas, mas ainda não são muito bons em realizar ações por nós. Isso pode mudar com os agentes de IA, modelos projetados com um propósito específico. Existem dois tipos principais.
O primeiro, chamado agentes baseados em ferramentas, usa linguagem natural para realizar tarefas digitais. Exemplos incluem o agente da Anthropic, lançado em outubro, capaz de preencher formulários navegando na web, e soluções semelhantes de empresas como Salesforce e OpenAI.
O outro tipo é conhecido como agentes de simulação. Você pode pensar neles como modelos projetados para se comportar como humanos. As primeiras pessoas a trabalhar na criação desses agentes foram pesquisadores de Ciências Sociais. Eles queriam conduzir estudos que seriam caros, impraticáveis ou antiéticos com pessoas reais, então eles usaram IA. Essa tendência ganhou força após a publicação de um estudo de 2023 liderado por Joon Sung Park, um candidato a PhD em Stanford, chamado “Generative Agents: Interactive Simulacra of Human Behavior”.
Recentemente, Park e sua equipe publicaram outro estudo no arXiv intitulado “Generative Agent Simulations of 1.000 People”. Nesse trabalho, os pesquisadores conduziram entrevistas de duas horas com 1.000 pessoas utilizando uma IA. Pouco tempo depois, a equipe conseguiu criar agentes simulados que replicaram os valores e preferências de cada participante com uma precisão impressionante.
Há duas questões realmente importantes aqui. Primeiro, fica claro que as principais empresas de IA não consideram mais suficiente criar ferramentas de IA generativa impressionantes; agora elas precisam desenvolver agentes capazes de realizar tarefas para as pessoas. Segundo, está se tornando mais fácil do que nunca fazer com que esses agentes de IA imitem comportamentos, atitudes e personalidades de pessoas reais. O que antes eram dois tipos distintos de agentes — agentes de simulação e agentes baseados em ferramentas — pode em breve se tornar uma coisa só: modelos de IA que não apenas imitam sua personalidade, mas também agem em seu nome.
Pesquisas sobre esse tema estão em andamento. Empresas como a Tavus estão trabalhando para ajudar os usuários a criarem “gêmeos digitais” de si mesmos. No entanto, o CEO da empresa, Hassaan Raza, planeja ir além, desenvolvendo agentes de IA que possam assumir a forma de terapeutas, médicos e professores.
Se essas ferramentas se tornarem baratas e fáceis de criar, surgirão muitas novas preocupações éticas, mas duas, em particular, se destacam. A primeira é que esses agentes poderiam gerar deepfakes ainda mais pessoais e potencialmente mais prejudiciais. Ferramentas de geração de imagens já tornaram simples a criação de pornografia não consensual usando apenas uma imagem de uma pessoa, mas essa crise só se intensificará se for fácil replicar também a voz, as preferências e a personalidade de alguém. (Park me disse que ele e sua equipe passaram mais de um ano lidando com questões éticas como essa em seu último projeto de pesquisa, envolvendo muitas conversas com o conselho de ética de Stanford e elaborando políticas sobre como os participantes poderiam retirar seus dados e contribuições.)
A segunda questão é a pergunta fundamental: temos o direito de saber se estamos falando com um agente ou com um humano? Se você participar de uma entrevista com uma IA e enviar amostras da sua voz para criar um agente que soa e responde como você, seus amigos ou colegas de trabalho têm o direito de saber quando estão falando com ele e não com você? Por outro lado, se você ligar para sua operadora de celular ou para o consultório do seu médico e um agente de atendimento ao cliente animado atender, você tem o direito de saber se está falando com uma IA?
Esse futuro parece distante, mas não é. É possível que, quando chegarmos lá, surjam questões éticas ainda mais urgentes e relevantes.
–