O primeiro ensaio clínico de um bot de terapia que utiliza IA generativa sugere que ele foi tão eficaz quanto a terapia humana para participantes com depressão, ansiedade ou risco de desenvolver transtornos alimentares. Ainda assim, isso não representa uma aprovação para as dezenas de empresas que promovem esse tipo de tecnologia enquanto operam em uma zona cinzenta regulatória.
Uma equipe liderada por pesquisadores psiquiátricos e psicólogos da Geisel School of Medicine, no Dartmouth College, desenvolveu a ferramenta, chamada Therabot, e os resultados foram publicados em 27 de março na NEJM AI, um periódico do New England Journal of Medicine. Muitas empresas de tecnologia têm criado ferramentas de IA voltadas à terapia, prometendo que as pessoas podem conversar com um bot com mais frequência e por um custo menor do que com um terapeuta treinado — e que essa abordagem seria segura e eficaz.
Muitos psicólogos e psiquiatras compartilham essa visão, observando que menos da metade das pessoas com algum transtorno mental recebe terapia, e que aquelas que recebem geralmente têm apenas 45 minutos por semana. Pesquisadores têm tentado desenvolver tecnologias para que mais pessoas possam ter acesso à terapia, mas esbarram em dois obstáculos.
O primeiro é que um bot de terapia que diga algo inadequado pode causar danos reais. Por isso, muitos pesquisadores construíram bots com programação explícita: o software puxa respostas de um banco finito de frases previamente aprovadas (como era o caso do Eliza, um programa de computador simulado como psicoterapeuta desenvolvido na década de 1960). Mas isso os torna menos envolventes em uma conversa, e as pessoas perdem o interesse. O segundo problema é que as marcas de um bom relacionamento terapêutico — como metas compartilhadas e colaboração — são difíceis de replicar em software.
Em 2019, à medida que os primeiros modelos de linguagem de grande escala, como o GPT da OpenAI, começavam a tomar forma, os pesquisadores de Dartmouth acreditaram que a IA generativa poderia ajudar a superar esses obstáculos. Eles decidiram construir um modelo de IA treinado para oferecer respostas baseadas em evidências. Primeiro, tentaram construí-lo a partir de conversas gerais sobre saúde mental extraídas de fóruns da internet. Depois, recorreram a milhares de horas de transcrições de sessões reais com psicoterapeutas.
“Obtivemos muitos ‘uh-huhs’, ‘continue’ e depois ‘Seus problemas vêm do seu relacionamento com sua mãe’”, disse Nick Jacobson, professor associado de ciência de dados biomédicos e psiquiatria em Dartmouth e autor sênior do estudo, em entrevista. “Eram realmente clichês do que se imagina que seja a psicoterapia, em vez daquilo que realmente queremos.”
Insatisfeitos, eles começaram a montar seus próprios conjuntos de dados personalizados com base em práticas baseadas em evidências, que foi o que acabou sendo incorporado ao modelo. Muitos bots de terapia com IA disponíveis no mercado, em contraste, podem ser apenas variações mínimas de modelos de base como o Llama da Meta, treinados principalmente com conversas da internet. Isso representa um problema, especialmente para temas como distúrbios alimentares.
“Se você disser que quer perder peso”, afirma Jacobson, “eles prontamente vão apoiar você nisso, mesmo que, muitas vezes, você já tenha um peso baixo para começar”. Um terapeuta humano não faria isso.
Para testar o bot, os pesquisadores realizaram um ensaio clínico de oito semanas com 210 participantes que apresentavam sintomas de depressão ou transtorno de ansiedade generalizada, ou que estavam em alto risco de desenvolver distúrbios alimentares. Cerca da metade teve acesso ao Therabot, enquanto o grupo de controle não teve. Os participantes respondiam a mensagens da IA e iniciavam conversas, com uma média de cerca de 10 mensagens por dia.
Os participantes com depressão apresentaram uma redução de 51% nos sintomas — o melhor resultado do estudo. Aqueles com ansiedade tiveram uma redução de 31%, e os que estavam em risco de distúrbios alimentares apresentaram uma redução de 19% nas preocupações com imagem corporal e peso. Essas medições são baseadas em autorrelatos por meio de questionários — um método que não é perfeito, mas continua sendo uma das melhores ferramentas disponíveis para os pesquisadores.
Esses resultados, afirma Jacobson, são comparáveis aos que se encontram em ensaios clínicos randomizados de psicoterapia com 16 horas de tratamento realizado por humanos — mas o ensaio com o Therabot alcançou esse efeito em cerca da metade do tempo. “Trabalho com terapias digitais há muito tempo e nunca vi níveis de engajamento tão prolongados e sustentados como este”, diz ele.
Jean-Christophe Bélisle-Pipon, professor assistente de ética em saúde na Universidade Simon Fraser, que já escreveu sobre bots de terapia com IA, mas não participou da pesquisa, afirma que os resultados são impressionantes, mas observa que, como qualquer outro ensaio clínico, este não representa necessariamente como o tratamento funcionaria no mundo real.
“Ainda estamos longe de um ‘sinal verde’ para a implementação clínica em larga escala”, escreveu ele por e-mail.
Uma das questões é a supervisão que uma implantação mais ampla poderia exigir. No início do ensaio, Jacobson conta que supervisionava pessoalmente todas as mensagens enviadas pelos participantes (que consentiram com esse arranjo) para monitorar possíveis respostas problemáticas do bot. Se bots de terapia exigirem esse tipo de supervisão, não conseguiriam alcançar tantas pessoas.
Perguntei a Jacobson se ele acredita que os resultados validam a crescente indústria de sites de terapia com IA.
“Na verdade, o oposto”, ele diz, alertando que a maioria dessas plataformas aparentemente não treina seus modelos com base em práticas fundamentadas em evidências, como a terapia cognitivo-comportamental, e provavelmente não conta com uma equipe de pesquisadores capacitados para monitorar as interações. “Tenho muitas preocupações com o setor e com a velocidade com que estamos avançando sem realmente avaliar tudo isso”, acrescenta.
Quando sites de IA se promovem como oferecendo terapia em um contexto legítimo e clínico, Jacobson afirma que isso significa que eles estão sob a jurisdição regulatória da Food and Drug Administration (FDA). Até o momento, a FDA não tomou medidas contra muitos desses sites. Caso fizesse, Jacobson acredita que “minha suspeita é que quase nenhum deles—provavelmente nenhum—que atua nesse setor teria capacidade de obter uma autorização de alegação”, ou seja, uma aprovação que comprove os benefícios que dizem oferecer.
Bélisle-Pipon destaca que, se esses tipos de terapias digitais não forem aprovados e integrados aos sistemas de saúde e seguros, isso limitará severamente seu alcance. Em vez disso, as pessoas que poderiam se beneficiar com seu uso podem acabar buscando vínculos emocionais e terapia em tipos de IA que não foram projetados para esses fins (de fato, uma nova pesquisa da OpenAI sugere que as interações com seus modelos de IA têm um impacto muito real no bem-estar emocional).
“É altamente provável que muitas pessoas continuem a depender de chatbots mais acessíveis e não terapêuticos — como o ChatGPT ou o Character.AI — para necessidades cotidianas, desde gerar ideias de receitas até gerenciar sua saúde mental”, ele escreveu.