Imagine participar de uma conversa de duas horas com um modelo de IA, guiado por uma voz amigável que aborda temas como sua infância, memórias marcantes, carreira e opiniões sobre política migratória. Logo depois, uma réplica virtual sua é capaz de refletir com precisão seus valores e preferências.
Isso já é possível, de acordo com um artigo publicado no arXiv por uma equipe de pesquisadores de Stanford e Google DeepMind. O estudo, liderado por Joon Sung Park, doutorando em ciência da computação em Stanford, recrutou 1.000 participantes com diversidade de idade, gênero, raça, região, educação e ideologia política, que receberam até US$ 100 por sua participação.
A equipe utilizou as entrevistas para criar réplicas de agentes desses indivíduos. Para testar a precisão dos agentes, os participantes realizaram testes de personalidade, pesquisas sociais e jogos de lógica em duas ocasiões, com intervalo de duas semanas. Em seguida, os agentes completaram as mesmas tarefas, e os resultados foram 85% semelhantes.
“Se pudermos ter pequenas versões de ‘você’ tomando decisões que você tomaria, isso representa o futuro,” afirma Park.
Agentes de simulação: uma nova ferramenta para pesquisa
As réplicas, chamadas de agentes de simulação, foram criadas para facilitar estudos em ciências sociais e outras áreas, reduzindo custos, dificuldades práticas e dilemas éticos do uso de sujeitos humanos. A ideia é que modelos de IA que imitam pessoas reais possam ser usados para testar intervenções em redes sociais contra desinformação ou entender os comportamentos que geram engarrafamentos, por exemplo.
Esses agentes diferem dos “agentes baseados em ferramentas” que grandes empresas de IA têm desenvolvido. Agentes baseados em ferramentas são projetados para realizar tarefas, como inserir dados ou agendar compromissos, mas não para interagir de forma semelhante a humanos. Exemplos incluem os agentes lançados recentemente pela Salesforce e pela Anthropic, e os planejados pela OpenAI para janeiro, segundo reportou a Bloomberg.
Apesar das diferenças, pesquisas como essa podem beneficiar ambas as abordagens. Segundo John Horton, professor do MIT Sloan School of Management, que usa participantes simulados para pesquisas, este estudo mostra que é possível criar um híbrido: usar humanos reais para gerar personas programáveis e utilizá-las em simulações de maneira impossível com sujeitos reais.
Cuidados e desafios éticos
Embora promissora, a tecnologia apresenta riscos éticos. Assim como a geração de imagens possibilitou a criação de deepfakes, agentes de IA podem ser usados para personificar outras pessoas online sem consentimento, gerando declarações ou ações que os indivíduos não autorizaram.
Além disso, os métodos utilizados para avaliar a semelhança entre humanos e agentes foram básicos. Entre eles estavam o General Social Survey (que mede dados demográficos, felicidade e comportamentos) e a avaliação dos traços de personalidade Big Five (abertura à experiência, conscienciosidade, extroversão, amabilidade e neuroticismo). Embora amplamente usados em pesquisas sociais, esses testes não capturam todas as nuances que tornam cada pessoa única.
Os agentes também tiveram pior desempenho em testes comportamentais, como o “jogo do ditador,” que explora valores como justiça.
Capturando singularidades humanas
Para criar agentes que replicassem personalidades de forma convincente, os pesquisadores usaram entrevistas qualitativas. Park acredita que as entrevistas são o método mais eficiente para capturar a essência de alguém. Ele baseou essa abordagem em sua experiência em podcasts, após um artigo de 2023 sobre agentes generativos que gerou grande interesse. “Depois de uma entrevista de duas horas, percebi como as pessoas sabem muito sobre mim. Duas horas podem ser incrivelmente poderosas,” diz ele.
Entrevistas também podem revelar detalhes únicos que dificilmente surgem em questionários. “Imagine alguém que superou um câncer no ano passado. Essa é uma informação muito única que diz muito sobre como essa pessoa pensa e age,” explica Park. Tais detalhes seriam difíceis de captar com perguntas padrão.
O futuro dos “gêmeos digitais”
Empresas como Tavus já oferecem gêmeos digitais, criando modelos de IA que utilizam dados de e-mails ou interações dos usuários. No entanto, esses métodos geralmente exigem grandes volumes de dados.
A pesquisa sugere uma abordagem mais eficiente. Hassaan Raza, CEO da Tavus, afirma que planeja testar essa técnica. “E se você conversasse com um entrevistador de IA por 30 minutos hoje e mais 30 minutos amanhã? Poderíamos usar isso para criar um gêmeo digital seu,” comenta.
Com esse avanço, a IA se aproxima ainda mais de capturar e replicar a essência humana, mas exige um cuidado redobrado com os impactos éticos e sociais que podem surgir.
—