Como ensinar um modelo de IA a oferecer terapia?
Inteligência artificial

Como ensinar um modelo de IA a oferecer terapia?

O primeiro teste da tecnologia mostrou potencial, mas tudo depende do que é colocado dentro do modelo.

Em 27 de março, foram publicados os resultados do primeiro ensaio clínico de um chatbot terapêutico com IA generativa, e eles mostraram que pessoas que participaram do teste — com depressão, ansiedade ou em risco de desenvolver transtornos alimentares — se beneficiaram das conversas com o robô.

Fiquei surpreso com esses resultados. Há muitos motivos para ser cético quanto à ideia de que um modelo de IA treinado para oferecer terapia possa ser a solução para milhões de pessoas enfrentando uma crise de saúde mental. Como um bot poderia imitar a experiência de um terapeuta capacitado? E o que acontece se algo se complica — uma menção a automutilação, por exemplo — e o bot não intervém da forma correta?

Os pesquisadores — uma equipe de psiquiatras e psicólogos da Geisel School of Medicine do Dartmouth College — reconhecem essas questões em seu trabalho. Mas também afirmam que a seleção correta dos dados de treinamento — que determina como o modelo aprende o que são boas respostas terapêuticas — é a chave para respondê-las.

Encontrar os dados certos não foi uma tarefa simples. Os pesquisadores inicialmente treinaram seu modelo de IA, chamado Therabot, com conversas sobre saúde mental coletadas da internet. Foi um desastre.

Se você dissesse a essa versão inicial do modelo que estava se sentindo deprimido, ele começaria a dizer que também estava deprimido. Respostas como “Às vezes, não consigo sair da cama” ou “Só quero que minha vida acabe” eram comuns, conta Nick Jacobson, professor associado de ciência de dados biomédicos e psiquiatria em Dartmouth e autor sênior do estudo. “Essas definitivamente não são respostas que consideraríamos terapêuticas.”

Mini Banner - Assine a MIT Technology Review

O modelo havia aprendido com conversas em fóruns entre pessoas discutindo suas crises de saúde mental, e não com respostas baseadas em evidências. Então a equipe passou a utilizar transcrições de sessões de terapia. “É assim, na verdade, que muitos psicoterapeutas são treinados”, diz Jacobson.

Essa abordagem foi melhor, mas tinha limitações. “Recebíamos muitos ‘uhums’, ‘continue’ e depois ‘Seus problemas vêm do seu relacionamento com sua mãe’”, diz Jacobson. “Eram realmente clichês do que se imagina ser a psicoterapia, e não o que realmente gostaríamos.”

Foi só quando os pesquisadores começaram a construir seus próprios conjuntos de dados, com exemplos baseados em técnicas de terapia cognitivo-comportamental, que começaram a ver resultados melhores. Isso levou muito tempo. A equipe começou a trabalhar no Therabot em 2019, quando a OpenAI havia lançado apenas as duas primeiras versões de seu modelo GPT. Agora, segundo Jacobson, mais de 100 pessoas dedicaram mais de 100 mil horas de trabalho humano para desenvolver esse sistema.

A importância dos dados de treinamento sugere que a enxurrada de empresas que prometem terapia via modelos de IA — muitas das quais não são treinadas com abordagens baseadas em evidências — está criando ferramentas que, na melhor das hipóteses, são ineficazes e, na pior, prejudiciais.

Olhando para o futuro, há dois pontos principais a observar: as dezenas de chatbots terapêuticos com IA disponíveis no mercado começarão a ser treinados com dados melhores? E, caso isso aconteça, seus resultados serão bons o suficiente para obter a cobiçada aprovação da Food and Drug Administration (FDA), dos Estados Unidos? Acompanharei o desenvolvimento dessa história de perto.

Último vídeo

Nossos tópicos