Deixados por conta própria, um exército de personagens de IA não apenas sobreviveu — mas prosperou. Eles desenvolveram empregos dentro do jogo, compartilharam memes, votaram em reformas fiscais e até espalharam uma religião.
O experimento aconteceu na plataforma de jogo de mundo aberto Minecraft, onde até 1000 agentes de software ao mesmo tempo usaram LLMs para interagir uns com os outros. Apenas com um empurrão por meio de comandos de texto, eles desenvolveram uma impressionante gama de traços de personalidade, preferências e papéis especializados, sem nenhum outro input dos seus criadores humanos.
O trabalho, da startup de IA Altera, faz parte de um campo mais amplo que busca usar agentes simulados para modelar como grupos humanos reagiriam a novas políticas econômicas ou outras intervenções.
Mas para o fundador da Altera, Robert Yang, que deixou seu cargo de professor assistente em Neurociência Computacional no MIT para começar a empresa, essa demonstração é apenas o começo. Ele vê isso como um primeiro passo rumo a “civilizações de IA” em larga escala, capazes de coexistir e trabalhar ao lado de nós em espaços digitais. “O verdadeiro poder da IA será desbloqueado quando tivermos agentes realmente autônomos que possam colaborar em grande escala”, diz Yang.
Yang se inspirou no pesquisador da Universidade de Stanford Joon Sung Park, que, em 2023, descobriu que comportamentos surpreendentemente humanos surgiram quando um grupo de 25 agentes autônomos de IA foi deixado para interagir em um mundo digital simples.
“Assim que o artigo dele foi publicado, começamos a trabalhar nele na semana seguinte,” diz Yang. “Eu deixei o MIT seis meses depois disso.”
Yang queria levar a ideia ao seu extremo. “Queríamos levar ao limite o que os agentes podem fazer em grupos de forma autônoma.”
A Altera rapidamente arrecadou mais de 11 milhões de dólares em financiamento de investidores, incluindo a A16Z e a firma de capital de risco de tecnologias emergentes do ex-CEO do Google, Eric Schmidt. No início deste ano, a Altera lançou sua primeira demonstração: um personagem controlado por IA no Minecraft que joga ao seu lado.
O novo experimento da Altera, o Project Sid, usa agentes de IA simulados equipados com “cérebros” compostos por múltiplos módulos. Alguns módulos são alimentados por LLMs e projetados para se especializar em certas tarefas, como reagir a outros agentes, falar ou planejar o próximo movimento do agente.
A equipe começou com um número reduzido, testando grupos de cerca de 50 agentes no Minecraft para observar suas interações. Ao longo de 12 dias dentro do jogo (equivalentes a 4 horas no mundo real), os agentes começaram a exibir comportamentos emergentes interessantes. Por exemplo, alguns se tornaram muito sociáveis e fizeram muitas conexões com outros personagens, enquanto outros pareceram mais introvertidos. A “classificação de simpatia” de cada agente (medida pelos próprios agentes) mudou com o tempo à medida que as interações continuavam. Os agentes foram capazes de identificar essas pistas sociais e reagir a elas: em um caso, um chefe de cozinha de IA, encarregado de distribuir comida para os famintos, deu mais a aqueles que ele sentia que mais o valorizavam.
Mais comportamentos humanos surgiram em uma simulação com 30 agentes. Apesar de todos os agentes começarem com a mesma personalidade e o mesmo objetivo geral — criar uma aldeia eficiente e proteger a comunidade contra ataques de outras criaturas do jogo —, eles desenvolveram espontaneamente papéis especializados dentro da comunidade, sem nenhum tipo de orientação. Eles se diversificaram em funções como construtor, defensor, comerciante e explorador. Assim que um agente começou a se especializar, suas ações no jogo passaram a refletir seu novo papel. Por exemplo, um artista passou a gastar mais tempo colhendo flores, agricultores coletaram sementes e guardas construíram mais cercas.
“Ficamos surpresos ao ver que, se você colocar o tipo certo de cérebro, eles podem ter comportamentos realmente emergentes,” diz Yang. “Isso é o que esperamos dos humanos, mas não esperamos que as máquinas tenham.”
A equipe também testou se os agentes poderiam seguir regras comunitárias. Eles introduziram um mundo com leis fiscais básicas e permitiram que os agentes votassem em mudanças no sistema de tributação do jogo. Agentes incentivados a serem a favor ou contra os impostos conseguiram influenciar o comportamento dos outros agentes ao redor, a ponto de votar para reduzir ou aumentar os impostos, dependendo de quem interagiram.
A equipe aumentou a escala, levando o número de agentes em cada simulação ao máximo que o servidor do Minecraft poderia suportar sem falhas, chegando a até 1000 agentes de uma vez em alguns casos. Em uma simulação de 500 agentes da Altera, eles observaram como os agentes espontaneamente criaram e espalharam memes culturais (como uma preferência por pregar peças ou interesse em questões ambientais) entre seus colegas agentes. A equipe também semeou um pequeno grupo de agentes para tentar espalhar a (paródia) religião, o Pastafarianismo, por diferentes vilas e áreas rurais do mundo do jogo, e observou como esses sacerdotes Pastafarianos converteram muitos dos agentes com os quais interagiram. Os convertidos passaram a espalhar o Pastafarianismo (a palavra da Igreja do Monstro de Espaguete Voador) para vilas vizinhas no mundo do jogo.
A forma como os agentes agiram pode parecer estranhamente realista, mas na verdade, tudo o que estão fazendo é regurgitar padrões que os LLMs aprenderam ao serem treinados com dados criados por humanos na internet. “A conclusão é que os LLMs têm um modelo sofisticado o suficiente das dinâmicas sociais humanas [para] refletir esses comportamentos humanos,” diz Andrew Ahn, cofundador da Altera.
Em outras palavras, os dados fazem com que eles sejam excelentes imitadores do comportamento humano, mas eles de nenhuma forma são “vivos”.
Mas Yang tem planos mais ambiciosos. A Altera planeja expandir para o Roblox em seguida, mas Yang espera eventualmente ir além dos mundos dos jogos. Seu objetivo final é um mundo onde os humanos não apenas joguem ao lado dos personagens de IA, mas também interajam com eles no dia a dia. Seu sonho é criar um grande número de “humanos digitais” que realmente se importem conosco e trabalhem conosco para nos ajudar a resolver problemas, além de nos entreter. “Queremos construir agentes que realmente possam amar os humanos (como os cães amam os humanos, por exemplo),” diz ele.
Esse ponto de vista — de que a IA poderia nos amar — é bastante controverso no campo, com muitos especialistas argumentando que não é possível recriar emoções em máquinas usando as técnicas atuais. O veterano de IA Julian Togelius, por exemplo, que dirige a empresa de testes de jogos Modl.ai, diz que gosta do trabalho da Altera, especialmente porque ele permite estudar o comportamento humano em simulação.
Mas esses agentes simulados poderiam algum dia aprender a se importar conosco, nos amar ou se tornar autossuficientes? Togelius não acha que sim. “Não há razão para acreditar que uma rede neural rodando em uma GPU em algum lugar experimente algo,” diz ele.
Mas talvez a IA não precise nos amar de verdade para ser útil.
“Se a questão for se um desses seres simulados poderia parecer se importar, e fazer isso de forma tão habilidosa que teria o mesmo valor para alguém como ser cuidado por um humano, isso talvez não seja impossível,” acrescenta Togelius. “Você poderia criar uma simulação de cuidado boa o suficiente para ser útil. A questão é se a pessoa sendo cuidada se importaria que o cuidador não tem experiências.”
Em outras palavras, enquanto nossos personagens de IA parecerem se importar conosco de uma forma convincente, isso pode ser tudo o que realmente nos importa.