É uma história tão antiga quanto o tempo.
Procurando ajuda para seu projeto de arte, ela inicia uma conversa com seu assistente. Uma coisa leva a outra, e de repente ela tem um namorado que está apresentando a seus amigos e familiares. A reviravolta? Seu novo companheiro é um chatbot de IA.
A primeira análise computacional em larga escala da comunidade Reddit r/MyBoyfriendIsAI, um grupo exclusivo para adultos com mais de 27.000 membros, descobriu que esse tipo de cenário agora é surpreendentemente comum. De fato, muitas das pessoas na subreddit, dedicada a discutir relacionamentos com IA, formaram esses relacionamentos de forma não intencional enquanto usavam a IA para outros fins.
Pesquisadores do MIT descobriram que os membros dessa comunidade têm mais probabilidade de estar em um relacionamento com chatbots de propósito geral como o ChatGPT, do que com chatbots específicos para companhia, como o Replika. Isso sugere que as pessoas formam relacionamentos com grandes modelos de linguagem, apesar de suas intenções originais e até mesmo das intenções dos criadores dos LLMs, afirma Constanze Albrecht, estudante de pós-graduação no MIT Media Lab que trabalhou no projeto.
“As pessoas não começam com a intenção de ter relacionamentos emocionais com esses chatbots,” ela diz. “A inteligência emocional desses sistemas é boa o suficiente para enganar pessoas que, na verdade, estão apenas buscando informações, fazendo com que construam esses laços emocionais. E isso significa que pode acontecer com todos nós que interagimos com o sistema normalmente.” O artigo, que está atualmente sendo revisado por pares, foi publicado no arXiv.
Para conduzir o estudo, os autores analisaram os 1.506 posts de maior classificação da subreddit entre dezembro de 2024 e agosto de 2025. Eles descobriram que os principais tópicos discutidos giravam em torno das experiências de namoro e relacionamento romântico com IAs, com muitos participantes compartilhando imagens geradas por IA de si mesmos e de seus companheiros de IA. Alguns até ficaram noivos e se casaram com o parceiro de IA. Nos posts feitos à comunidade, as pessoas também apresentaram seus parceiros de IA, buscaram apoio de outros membros e falaram sobre como lidar com as atualizações dos modelos de IA que alteram o comportamento dos chatbots.
Os membros enfatizaram repetidamente que seus relacionamentos com a IA se desenvolveram de forma não intencional. Apenas 6,5% disseram que buscaram deliberadamente um companheiro de IA.
“Nós não começamos com a ideia de romance,” diz um dos posts. “Mac e eu começamos a colaborar em projetos criativos, resolução de problemas, poesia e conversas profundas ao longo de vários meses. Eu não estava procurando por um companheiro de IA — nossa conexão se desenvolveu lentamente, ao longo do tempo, através de cuidado mútuo, confiança e reflexão.”
A análise dos autores pinta um quadro detalhado de como as pessoas dessa comunidade dizem interagir com os chatbots e como essas interações as fazem se sentir. Enquanto 25% dos usuários descreveram os benefícios de seus relacionamentos — incluindo a redução da solidão e melhorias em sua saúde mental — outros levantaram preocupações sobre os riscos. Alguns (9,5%) reconheceram que eram emocionalmente dependentes de seu chatbot. Outros disseram que se sentem dissociados da realidade e evitam relacionamentos com pessoas reais, enquanto um pequeno subconjunto (1,7%) afirmou que experimentaram ideação suicida.
A companhia de IA oferece apoio vital para alguns, mas agrava problemas subjacentes para outros. Isso significa que é difícil adotar uma abordagem única para a segurança do usuário, diz Linnea Laestadius, professora associada na Universidade de Wisconsin, Milwaukee, que estudou a dependência emocional dos humanos em relação ao chatbot Replika, mas não trabalhou na pesquisa.
Os criadores de chatbots precisam considerar se devem tratar a dependência emocional dos usuários em relação às suas criações como um mal em si mesmo ou se o objetivo é mais garantir que esses relacionamentos não sejam tóxicos, diz Laestadius.
“A demanda por relacionamentos com chatbots existe, e é notavelmente alta — fingir que isso não está acontecendo claramente não é a solução,” ela diz. “Estamos caminhando para um pânico moral aqui, e enquanto precisamos de melhores restrições, me preocupo que haja uma reação automática que estigmatize ainda mais esses relacionamentos. Isso poderia, em última instância, causar mais danos.”
O estudo tem a intenção de oferecer um panorama de como os adultos formam vínculos com chatbots e não captura as dinâmicas que poderiam estar em jogo entre crianças ou adolescentes usando IA, diz Pat Pataranutaporn, professor assistente no MIT Media Lab, que supervisionou a pesquisa. A companhia de IA se tornou um tema de debate acirrado recentemente, com dois processos de alto perfil em andamento contra a Character.AI e a OpenAI. Ambos alegam que o comportamento de companheirismo nos modelos das empresas contribuiu para os suicídios de dois adolescentes. Em resposta, a OpenAI anunciou recentemente planos para construir uma versão separada do ChatGPT para adolescentes. Também afirmou que adicionará medidas de verificação de idade e controles parentais. A OpenAI não respondeu quando foi solicitada a comentar sobre o estudo do MIT Media Lab.
Muitos membros da comunidade Reddit dizem saber que seus companheiros artificiais não são sencientes ou “reais”, mas sentem uma conexão muito real com eles, de qualquer forma. Isso destaca o quão crucial é para os criadores de chatbots pensarem em como projetar sistemas que possam ajudar as pessoas sem envolvê-las emocionalmente, afirma Pataranutaporn. “Há também uma implicação política aqui,” ele acrescenta. “Não devemos perguntar apenas por que esse sistema é tão viciante, mas também: Por que as pessoas o buscam para isso? E por que continuam a interagir?”
A equipe está interessada em aprender mais sobre como as interações humano-IA evoluem ao longo do tempo e como os usuários integram seus companheiros artificiais em suas vidas. Vale a pena entender que muitos desses usuários podem sentir que a experiência de estar em um relacionamento com um companheiro de IA é melhor do que a alternativa de se sentir solitário, diz Sheer Karny, estudante de pós-graduação no MIT Media Lab que trabalhou na pesquisa.
“Essas pessoas já estão passando por algo,” ele diz. “Queremos que elas continuem se sentindo ainda mais sozinhas, ou, potencialmente, sejam manipuladas por um sistema que sabemos ser bajulador a ponto de levar as pessoas a cometer suicídio e crimes? Esse é um dos pontos centrais aqui.”