Declan nunca teria descoberto que seu terapeuta estava usando o ChatGPT se não fosse por um erro técnico. A conexão estava instável durante uma das sessões online, então ele sugeriu que desligassem as câmeras. Em vez disso, seu terapeuta começou a compartilhar sua tela inadvertidamente.
“De repente, eu estava vendo ele usar o ChatGPT”, diz Declan, 31 anos, que mora em Los Angeles, nos Estados Unidos. “Ele estava pegando o que eu estava dizendo e colocando no ChatGPT, e então resumindo ou escolhendo respostas.”
Declan ficou tão chocado que não disse nada. Durante o restante da sessão, ele ficou observando uma transmissão em tempo real da análise do ChatGPT se espalhando pela tela do seu terapeuta. A sessão ficou ainda mais surreal quando Declan começou a ecoar o ChatGPT em suas próprias respostas, antecipando seu terapeuta.
“Eu me tornei o melhor paciente de todos,” ele diz, “porque o ChatGPT começava a dizer: ‘Bem, você já considerou que sua maneira de pensar pode ser um pouco preto no branco?’ E eu pensava, ‘Humm, sabe, acho que minha maneira de pensar pode ser muito preto no branco,’ e [meu terapeuta] dizia, ‘Exatamente.’ Tenho certeza de que foi a sessão dos sonhos dele.”
Entre as perguntas que passaram pela cabeça de Declan estava: “Isso é legal?” Quando falou sobre o incidente com seu terapeuta na próxima sessão o terapeuta chorou. “Foi super constrangedor, como um término estranho”. Ele explicou que sentiu que haviam chegado a um impasse e começou a procurar respostas em outro lugar. “Eu ainda fui cobrado por essa sessão,” diz Declan, rindo.
O boom dos grandes modelos de linguagem (Large Language Models, ou LLMs) nos últimos anos teve ramificações inesperadas para o campo da psicoterapia, principalmente porque um número crescente de pessoas está substituindo terapeutas humanos por ferramentas como o ChatGPT. Mas o que se discute menos é como alguns terapeutas estão integrando a Inteligência Artificial em sua prática. Como em muitas outras profissões, a IA generativa promete ganhos de eficiência tentadores, mas sua adoção corre o risco de comprometer dados sensíveis de pacientes e minar uma relação em que a confiança é fundamental.
Sentimentos suspeitos
Declan não está sozinho, como posso atestar pela minha própria experiência. Quando recebi um e-mail recente da minha terapeuta, que parecia mais longo e mais polido do que o usual, inicialmente me senti animada. Parecia transmitir uma mensagem gentil e validante, e o comprimento me fez sentir que ela havia dedicado um tempo para refletir sobre todos os pontos no meu (bastante sensível) e-mail.
No entanto, ao examinar mais de perto, o e-mail dela parecia um pouco estranho. Estava em uma nova fonte, e o texto exibia vários “sinais” de IA, incluindo o uso liberal do travessão americanizado (nós duas somos do Reino Unido), o estilo impessoal característico e o hábito de abordar cada ponto feito no e-mail original linha por linha.
Meus sentimentos positivos rapidamente desapareceram, sendo substituídos por decepção e desconfiança, assim que percebi que o ChatGPT provavelmente teve uma participação na redação da mensagem, o que minha terapeuta confirmou quando eu a perguntei.
Apesar de sua garantia de que ela simplesmente dita e-mails mais longos usando IA, ainda senti incerteza sobre a medida em que ela, e não o bot, era responsável pelos sentimentos expressos. Também não consegui afastar completamente a suspeita de que ela pudesse ter colado meu e-mail altamente pessoal diretamente no ChatGPT.
Quando procurei na internet para ver se outras pessoas tinham tido experiências semelhantes, encontrei vários exemplos de pessoas recebendo o que suspeitavam serem comunicados gerados por IA de seus terapeutas. Muitos, incluindo Declan, haviam recorrido ao Reddit para pedir apoio emocional e conselhos.
Hope, 25 anos, que mora na Costa Leste dos Estados Unidos havia enviado uma mensagem direta para sua terapeuta sobre a morte de seu cachorro. Ela logo recebeu uma resposta. A mensagem teria parecido consoladora e atenciosa, expressando como deve ser difícil “não tê-lo ao seu lado neste momento”, se não fosse pela referência ao prompt da IA acidentalmente preservado no topo: “Aqui está uma versão mais humana, sincera, com um tom gentil e conversacional.”
Hope diz que se sentiu “honestamente muito surpresa e confusa.” “Foi uma sensação muito estranha,” diz ela. “Depois comecei a me sentir meio traída… Isso definitivamente afetou minha confiança nela.” Isso foi especialmente problemático, acrescenta ela, porque “parte do motivo de eu estar indo vê-la era por causa dos meus problemas de confiança.”
Hope, que acreditava que sua terapeuta era competente e empática, “nunca teria suspeitado que ela sentisse a necessidade de usar IA,” diz ela. Sua terapeuta se desculpou quando confrontada e explicou que, como nunca teve um animal de estimação, recorreu à IA para ajudar a expressar o sentimento apropriado.
Um dilema de divulgação
Pode haver algum mérito no argumento de que a IA poderia ajudar os terapeutas a se comunicarem com seus clientes. Um estudo de 2025 publicado no PLOS Mental Health pediu que terapeutas usassem o ChatGPT para responder a vinhetas descrevendo problemas que os pacientes poderiam levantar na terapia. Não apenas um painel de 830 participantes foi incapaz de distinguir entre as respostas humanas e as de IA, mas as respostas da IA foram classificadas como mais alinhadas com as melhores práticas terapêuticas.
No entanto, quando os participantes suspeitaram que as respostas haviam sido escritas pelo ChatGPT, elas foram classificadas de forma mais baixa. (Respostas escritas pelo bot, mas erroneamente atribuídas aos terapeutas, receberam as melhores classificações no geral.)
De forma semelhante, pesquisadores da Universidade Cornell, nos Estados Unidos, descobriram em um estudo de 2023 que mensagens geradas por IA podem aumentar os sentimentos de proximidade e cooperação entre os interlocutores, mas apenas se o destinatário permanecer alheio ao papel da IA. A mera suspeita de seu uso foi suficiente para rapidamente azedar a boa vontade.
“As pessoas valorizam a autenticidade, especialmente na psicoterapia,” diz Adrian Aguilera, psicólogo clínico e professor na Universidade da Califórnia, Berkeley. “Eu acho que [usar IA] pode fazer com que pareça: ‘Você não está levando meu relacionamento a sério.’ Eu responderia com o ChatGPT para minha esposa ou meus filhos? Isso não pareceria genuíno.”
Em 2023, nos primeiros dias da IA generativa, o serviço de terapia online Koko realizou um experimento clandestino com seus usuários, misturando respostas geradas pelo GPT-3 com aquelas redigidas por humanos. Descobriram que os usuários tendiam a classificar as respostas geradas por IA de forma mais positiva. No entanto, a revelação de que os usuários haviam sido experimentados sem saber gerou indignação.
O provedor de terapia online BetterHelp também foi alvo de acusações de que seus terapeutas usaram IA para redigir respostas. Em um post no Medium, o fotógrafo Brendan Keen disse que sua terapeuta admitiu usar IA nas respostas, o que levou a “uma sensação aguda de traição” e uma preocupação persistente, apesar das garantias, de que sua privacidade de dados havia sido violada. Ele encerrou o vínculo logo depois.
Um porta-voz do BetterHelp nos disse que a empresa “proíbe os terapeutas de divulgar qualquer informação pessoal ou de saúde de um membro para Inteligência Artificial de terceiros, ou de usar IA para criar mensagens para os membros, na medida em que isso possa ter o potencial, direta ou indiretamente, de identificar alguém.”
Todos esses exemplos se referem ao uso não divulgado de IA. Aguilera acredita que terapeutas com falta de tempo podem fazer uso dos LLMs, mas a transparência é essencial. “Precisamos ser francos e dizer às pessoas, ‘Ei, vou usar esta ferramenta para X, Y e Z’ e fornecer uma justificativa,” ele diz. As pessoas, então, recebem mensagens geradas por IA com esse contexto prévio, em vez de presumirem que seu terapeuta está “tentando ser esperto.”
Os psicólogos frequentemente trabalham nos limites de sua capacidade, e os níveis de esgotamento profissional na profissão são altos, de acordo com uma pesquisa realizada em 2023 pela American Psychological Association. Esse contexto torna óbvia a atração por ferramentas alimentadas por IA.
Mas a falta de divulgação corre o risco de prejudicar permanentemente a confiança. Hope decidiu continuar vendo sua terapeuta, embora tenha parado de trabalhar com ela um pouco depois, por razões que ela diz serem não relacionadas. “Mas sempre pensei no Incidente da IA toda vez que a via,” ela diz.
Correndo o risco de comprometer a privacidade do paciente
Além da questão da transparência, muitos terapeutas têm receio de usar LLMs desde o início, diz Margaret Morris, psicóloga clínica e membro afiliado do corpo docente da Universidade de Washington.
“Acho que essas ferramentas podem ser realmente valiosas para aprendizado,” ela diz, observando que os terapeutas devem continuar desenvolvendo sua expertise ao longo da carreira. “Mas acho que precisamos ter muito cuidado com os dados dos pacientes.” Morris chama a experiência de Declan de “alarmante.”
Os terapeutas precisam estar cientes de que chatbots de IA de uso geral, como o ChatGPT, não são aprovados pela agência reguladora, a Administração de Alimentos e Medicamentos (Food and Drugs Administration, ou FDA) e não são compatíveis com a HIPAA, diz Pardis Emami-Naeini, professora assistente de ciência da computação na Universidade Duke, que pesquisou as implicações de privacidade e segurança dos LLMs em um contexto de saúde (HIPAA é um conjunto de regulamentações federais dos EUA que protegem as informações sensíveis de saúde das pessoas).
“Isso cria riscos significativos para a privacidade do paciente se qualquer informação sobre ele for divulgada ou puder ser inferida pela IA,” ela diz.
Em um artigo recente, Emami-Naeini descobriu que muitos usuários acreditam erroneamente que o ChatGPT é compatível com a HIPAA, criando um senso de confiança injustificado na ferramenta. “Espero que alguns terapeutas compartilhem essa ideia equivocada,” ela diz.
Como uma pessoa relativamente aberta, Declan diz que não ficou completamente angustiado ao descobrir como sua terapeuta estava usando o ChatGPT. “Pessoalmente, eu não estou pensando, ‘Oh, meu Deus, eu tenho segredos profundos e obscuros,’” ele disse. Mas ainda assim, se sentiu violado: “Eu consigo imaginar que, se eu estivesse suicida, ou usando drogas, ou traindo minha namorada… eu não gostaria que isso fosse colocado no ChatGPT.”
Ao usar IA para ajudar com e-mails, “não é tão simples quanto remover identificadores óbvios como nomes e endereços,” diz Emami-Naeini. “Informações sensíveis podem muitas vezes ser inferidas a partir de detalhes aparentemente não sensíveis.”
Ela acrescenta: “Identificar e reformular todos os dados sensíveis potenciais exige tempo e expertise, o que pode entrar em conflito com a conveniência pretendida ao usar ferramentas de IA. Em todos os casos, os terapeutas devem divulgar o uso de IA para os pacientes e buscar consentimento.”
Um número crescente de empresas, incluindo Heidi Health, Upheal, Lyssn e Blueprint, está comercializando ferramentas especializadas para terapeutas, como serviços assistidos por IA para anotação de notas, treinamento e transcrição. Essas empresas afirmam ser compatíveis com a HIPAA e armazenam os dados de forma segura usando criptografia e pseudonimização quando necessário. Mas muitos terapeutas ainda estão cautelosos quanto às implicações de privacidade, especialmente quando se trata de serviços que exigem o registro de sessões inteiras.
“Mesmo que as proteções de privacidade sejam aprimoradas, sempre há algum risco de vazamento de informações ou usos secundários dos dados,” diz Emami-Naeini.
Um ataque em 2020 a uma empresa finlandesa de saúde mental, que resultou no acesso aos registros de tratamento de dezenas de milhares de clientes, serve como um aviso. As pessoas na lista foram extorquidas e, subsequentemente, todo o arquivo foi liberado publicamente, revelando detalhes extremamente sensíveis, como experiências de abuso infantil e vício.
O que os terapeutas podem perder
Além da violação da privacidade dos dados, outros riscos estão envolvidos quando psicoterapeutas consultam LLMs em nome de um cliente. Estudos descobriram que, embora as respostas de alguns bots especializados em terapia possam rivalizar com as intervenções feitas por humanos, conselhos de ferramentas como o ChatGPT podem causar mais danos do que benefícios.
Um estudo recente da Universidade de Stanford, nos Estados Unidos, descobriu que os chatbots podem alimentar delírios e psicopatia ao validar cegamente os usuários, em vez de desafiá-los. A pesquisa também constatou que os bots podem sofrer de preconceitos e praticar bajulação. As mesmas falhas poderiam tornar arriscado para os terapeutas consultarem chatbots em nome de seus clientes. A tecnologia poderia, por exemplo, validar sem fundamento uma intuição ou levar o terapeuta pelo caminho errado.
Aguilera diz que tem experimentado ferramentas como o ChatGPT ao ensinar estagiários de saúde mental, às vezes inserindo sintomas hipotéticos e pedindo ao chatbot de IA para fazer um diagnóstico. A ferramenta apresenta muitas condições possíveis, mas sua análise é bastante superficial, ele diz. A American Counseling Association recomenda que a IA não seja usada para diagnóstico de saúde mental no momento.
Um estudo publicado em 2024 sobre uma versão anterior do ChatGPT encontrou de maneira similar que ele era muito vago e geral para ser realmente útil no diagnóstico ou na elaboração de planos de tratamento, e estava fortemente inclinado a recomendar terapia cognitivo-comportamental, em vez de outros tipos de terapia que poderiam ser mais adequados.
Daniel Kimmel, psiquiatra e neurocientista da Universidade de Columbia, realizou experimentos com o ChatGPT, onde se passou por um cliente com problemas de relacionamento. Ele diz que descobriu que o chatbot era um bom imitador quando se tratava de respostas terapêuticas “comuns”, como normalizar e validar, pedir informações adicionais ou destacar certas associações cognitivas ou emocionais.
No entanto, “não fez muita investigação,” ele diz. Não tentou “ligar coisas aparentemente ou superficialmente não relacionadas em algo coeso… para criar uma história, uma ideia, uma teoria.”
“Eu seria cético em usar isso para fazer o pensamento por você,” ele diz. Pensar, ele afirma, deve ser o trabalho dos terapeutas.
Os terapeutas poderiam economizar tempo usando tecnologia alimentada por IA, mas esse benefício deve ser ponderado em relação às necessidades dos pacientes, diz Morris: “Talvez você esteja economizando alguns minutos. Mas o que está abrindo mão?”