A OpenAI afirma que mais de 400 milhões de pessoas usam o ChatGPT todas as semanas. Mas como a interação com ele nos afeta? Isso nos torna mais ou menos solitários? Essas são algumas das perguntas que a OpenAI se propôs a investigar, em parceria com o MIT Media Lab, em um copilado de novos estudos.
Eles descobriram que apenas uma pequena parcela dos usuários se envolve emocionalmente com o ChatGPT. Isso não é surpreendente, considerando que o ChatGPT não é divulgado como um aplicativo de companhia com IA, como o Replika ou o Character.AI, explica Kate Devlin, professora de IA e sociedade no King’s College London, que não trabalhou no projeto. “O ChatGPT foi criado como uma ferramenta de produtividade”, afirma. “Mas sabemos que as pessoas o utilizam como um aplicativo de companhia, de qualquer forma.” Na verdade, aqueles que o utilizam dessa forma tendem a interagir por longos períodos, alguns chegando a uma média de cerca de meia hora por dia.
“Os autores deixam muito claro as limitações desses estudos, mas é animador ver que eles realizaram essa pesquisa”, diz Devlin. “Ter acesso a esse nível de dados é algo incrível.”
Os pesquisadores identificaram algumas diferenças intrigantes em como homens e mulheres respondem ao uso do ChatGPT. Após utilizarem o chatbot por quatro semanas, as participantes mulheres mostraram-se ligeiramente menos propensas a socializar com outras pessoas do que os participantes homens que fizeram o mesmo. Enquanto isso, participantes que interagiram com o modo de voz do ChatGPT usando um gênero diferente do seu relataram níveis significativamente mais altos de solidão, e uma maior dependência emocional do chatbot ao final do experimento. A OpenAI planeja submeter ambos os estudos a revistas científicas com revisão por pares.
Chatbots baseados em grandes modelos de linguagem ainda são uma tecnologia em estágio inicial, e é difícil estudar como eles nos afetam emocionalmente. Grande parte das pesquisas existentes nessa área — incluindo alguns dos novos trabalhos da OpenAI e do MIT — baseia-se em dados autorrelatados, que nem sempre são precisos ou confiáveis. Dito isso, esta pesquisa mais recente está em sintonia com o que os cientistas já descobriram até agora sobre o quão emocionalmente envolventes podem ser as conversas com chatbots. Por exemplo, em 2023, pesquisadores do MIT Media Lab descobriram que os chatbots tendem a espelhar o sentimento emocional das mensagens dos usuários, sugerindo uma espécie de ciclo de retroalimentação: quanto mais feliz você age, mais feliz a IA parece; e, se você age de forma mais triste, ela também.
A OpenAI e o MIT Media Lab utilizaram um método em duas etapas. Primeiro, coletaram e analisaram dados do mundo real de quase 40 milhões de interações com o ChatGPT. Em seguida, perguntaram aos 4.076 usuários que participaram dessas interações como elas os fizeram se sentir. Depois, o Media Lab recrutou quase 1.000 pessoas para participar de um teste de quatro semanas. Esse estudo foi mais aprofundado, examinando como os participantes interagiam com o ChatGPT por, no mínimo, cinco minutos ao dia. No final do experimento, os participantes preencheram um questionário para medir suas percepções sobre o chatbot, seus sentimentos subjetivos de solidão, seus níveis de engajamento social, sua dependência emocional em relação ao bot e sua percepção sobre se o uso do bot era problemático.
Eles descobriram que os participantes que confiavam mais e criavam um “vínculo” com o ChatGPT tinham maior probabilidade de se sentirem solitários e de dependerem mais dele.
Esse trabalho é um primeiro passo importante para uma compreensão mais ampla do impacto do ChatGPT sobre nós, o que pode ajudar as plataformas de IA a promover interações mais seguras e saudáveis, afirma Jason Phang, pesquisador de segurança da OpenAI que trabalhou no projeto.
“Muito do que estamos fazendo aqui é preliminar, mas estamos tentando iniciar a conversa com o setor sobre os tipos de coisas que podemos começar a medir e começar a refletir sobre qual será o impacto de longo prazo nos usuários”, diz Phang.
Embora a pesquisa seja bem-vinda, ainda é difícil identificar quando um ser humano está — ou não — interagindo com a tecnologia em um nível emocional, afirma Devlin. Ela aponta que os participantes do estudo podem ter experimentado emoções que não foram registradas pelos pesquisadores.
“Em relação ao que as equipes se propuseram a medir, as pessoas talvez não estivessem necessariamente usando o ChatGPT de forma emocional, mas não dá para separar o fato de sermos humanos das nossas interações [com a tecnologia]”, explica Devlin. “Usamos esses classificadores de emoções que criamos para identificar certas coisas — mas o que isso realmente significa para a vida de alguém é algo muito difícil de extrapolar.”
Correção: Uma versão anterior deste artigo afirmou incorretamente que os participantes do estudo escolheram o gênero da voz do ChatGPT e que a OpenAI não planejava publicar nenhum dos estudos. Na verdade, os participantes foram designados a um gênero no modo de voz, e a OpenAI pretende submeter ambos os estudos a revistas científicas com revisão por pares. O artigo já foi atualizado.