Estamos no meio de uma crise global de saúde mental. Mais de um bilhão de pessoas no mundo sofrem de alguma condição deste tipo, de acordo com a Organização Mundial da Saúde. A prevalência de ansiedade e depressão está crescendo em muitos grupos demográficos, particularmente entre jovens, e o suicídio está tirando centenas de milhares de vidas globalmente a cada ano.
Dada a demanda clara por serviços a preços acessíveis, não é surpresa que as pessoas tenham recorrido à Inteligência Artificial em busca de possível alívio. Milhões já buscam terapia em chatbots populares como o ChatGPT, da OpenAI, e o Claude, da Anthropic, ou em aplicativos especializados em psicologia, como Wysa e Woebot. Em uma escala mais ampla, pesquisadores estão explorando o potencial da tecnologia para monitorar e coletar observações comportamentais e biométricas usando dispositivos vestíveis e aparelhos inteligentes, analisar volumes vastos de dados clínicos em busca de novos insights e auxiliar profissionais humanos de saúde mental para ajudar a prevenir o burnout.
Mas, até agora, esse experimento em grande parte sem controle produziu resultados mistos. Muitas pessoas encontraram consolo em chatbots baseados em grandes modelos de linguagem (Large Language Models, ou LLMs), e alguns especialistas veem neles potencial como terapeutas, mas outros usuários foram levados a espirais delirantes pelos caprichos alucinatórios e pela bajulação ofegante da IA. De forma mais trágica, múltiplas famílias alegaram que chatbots contribuíram para os suicídios de seus entes queridos, desencadeando processos contra as empresas responsáveis por essas ferramentas. Em outubro de 2025, o CEO da OpenAI, Sam Altman revelou em um post de blog que 0,15% dos usuários do ChatGPT “têm conversas que incluem indicadores explícitos de possível planejamento ou intenção suicida”. Ou seja, aproximadamente, um milhão de pessoas compartilhando esses pensamentos com apenas um desses sistemas de software por semana.
As consequências no mundo real da terapia por IA chegaram a um ponto crítico de maneiras inesperadas em 2025, à medida que atravessamos histórias sobre relacionamentos humano-chatbot. Há uma fragilidade nas barreiras de proteção em muitos modelos e riscos de compartilhar informações profundamente pessoais com produtos feitos por corporações que têm incentivos econômicos para coletar e monetizar dados tão sensíveis.
Vários autores anteciparam esse ponto de inflexão. Seus livros oportunos são um lembrete de que, embora o presente pareça cheio de avanços, escândalos e confusão, este tempo desorientador está enraizado em histórias mais profundas de cuidado, tecnologia e confiança.
Os grandes modelos de linguagem têm sido frequentemente descritos como “caixas-pretas” porque ninguém sabe exatamente como eles produzem seus resultados. Os mecanismos internos que orientam suas saídas são opacos porque seus algoritmos são tão complexos e seus dados de treinamento são tão vastos. Em círculos de saúde mental, as pessoas frequentemente descrevem o cérebro humano como uma “caixa-preta”, por razões análogas. Psicologia, psiquiatria e campos relacionados precisam lidar com a impossibilidade de enxergar com clareza dentro da cabeça de outra pessoa, sem falar nas causas exatas de seu sofrimento.
Esses dois tipos de caixas-pretas agora estão interagindo entre si, criando ciclos de retroalimentação imprevisíveis que podem impedir ainda mais a clareza sobre as origens das lutas de saúde mental das pessoas e as soluções que podem ser possíveis. A ansiedade em relação a esses desenvolvimentos tem muito a ver com os recentes avanços em IA, mas também revive alertas de décadas atrás de pioneiros como o cientista da computação do MIT, Joseph Weizenbaum, que argumentou contra a terapia computadorizada já na década de 1960.
Charlotte Blease, filósofa da medicina, apresenta um argumento otimista em “Dr. Bot: Why Doctors Can Fail Us — and How AI Could Save Lives” (“Dr. Bot: Por que médicos podem falhar conosco e como a IA pode salvar nossas vidas”, em tradução livre). Seu livro explora, de modo amplo, os possíveis impactos positivos da tecnologia em uma série de campos médicos. Embora ela permaneça lúcida quanto aos riscos, alertando que leitores que esperam “uma carta de amor efusiva à tecnologia” ficarão desapontados, a autora sugere que esses modelos podem ajudar a aliviar tanto o sofrimento dos pacientes quanto o burnout médico.
“Os sistemas de saúde estão desmoronando sob a pressão dos pacientes”, escreve Blease. “Maiores cargas sobre menos médicos criam a situação perfeita para erros”, e “com escassez palpável de médicos e tempos de espera crescentes para os pacientes, muitos de nós estamos profundamente frustrados”.
Blease acredita que a IA pode não apenas aliviar as cargas de trabalho massivas dos profissionais de saúde, mas também reduzir as tensões que sempre existiram entre alguns pacientes e seus cuidadores. Por exemplo, as pessoas muitas vezes não buscam o cuidado necessário porque se sentem intimidadas ou temem julgamento por parte de profissionais da área. Isso é especialmente verdadeiro se elas têm desafios de saúde mental. A IA poderia permitir que mais pessoas compartilhassem suas preocupações, ela argumenta.
Mas ela sabe que essas supostas vantagens precisam ser ponderadas em relação a grandes desvantagens. Por exemplo, terapeutas de IA podem fornecer respostas inconsistentes e até perigosas a usuários humanos, de acordo com um estudo de 2025, e também levantam preocupações de privacidade, dado que empresas de tecnologia atualmente não estão vinculadas aos mesmos padrões de confidencialidade que terapeutas licenciados.
Embora Blease seja especialista nessa área, sua motivação para escrever o livro também é pessoal: ela tem dois irmãos com uma forma incurável de distrofia muscular, um dos quais esperou décadas por um diagnóstico. Durante a escrita de seu livro, ela também perdeu sua parceira para o câncer e seu pai para a demência em um período devastador de seis meses. “Eu testemunhei em primeira mão o brilho absoluto dos médicos e a gentileza de profissionais de saúde”, ela escreve. “Mas eu também observei como as coisas podem dar errado com o cuidado.”
Uma tensão semelhante anima o livro envolvente de Daniel Oberhaus, “The Silicon Shrink: How Artificial Intelligence Made the World an Asylum” (“O Terapeuta do Vale do Silício: Como a Inteligência Artificial Transformou o Mundo em um Asilo”, em tradução livre). Oberhaus parte de um ponto de tragédia: a perda de sua irmã mais nova por suicídio. Enquanto realizava o “processo de luto distintamente do século XXI”, de vasculhar seus restos digitais, ele se perguntou se a tecnologia poderia ter aliviado o fardo dos problemas psiquiátricos que a haviam atormentado desde a infância.
“Parecia possível que todos esses dados pessoais pudessem conter pistas importantes que seus provedores de saúde mental poderiam ter usado para oferecer um tratamento mais eficaz”, ele escreve. “E se algoritmos rodando no smartphone ou no laptop da minha irmã tivessem usado esses dados para entender quando ela estava em sofrimento? Isso poderia ter levado a uma intervenção oportuna que salvou sua vida? Ela teria desejado isso mesmo que tivesse?”
Esse conceito de fenotipagem digital, no qual o comportamento digital de uma pessoa poderia ser explorado em busca de pistas sobre sofrimento ou doença, parece elegante em teoria. Mas ele também pode se tornar problemático se for integrado ao campo da Inteligência Artificial Psiquiátrica (IAP), que vai muito além da terapia por chatbot.
Oberhaus enfatiza que pistas digitais poderiam, na verdade, agravar os desafios já existentes da psiquiatria moderna, uma disciplina que permanece fundamentalmente incerta sobre as causas subjacentes das doenças e dos transtornos mentais. O advento da IAP, ele diz, é “o equivalente lógico de enxertar física na astrologia”. Em outras palavras, os dados gerados pela fenotipagem digital são tão precisos quanto medições físicas das posições planetárias, mas então são integrados a uma estrutura mais ampla, neste caso, a psiquiatria, que, como a astrologia, se baseia em suposições pouco confiáveis.
Oberhaus, que usa a expressão “psiquiatria do swipe (de deslizar)” para descrever a terceirização de decisões clínicas, com base em dados comportamentais, para grandes modelos de linguagem, acha que essa abordagem não consegue escapar de questões fundamentais enfrentadas. Na verdade, ela poderia piorar o problema ao fazer com que as habilidades e o julgamento de terapeutas humanos atrofiem à medida que eles se tornam mais dependentes de sistemas de IA.
Ele também usa os asilos do passado, nos quais pacientes institucionalizados perderam seu direito à liberdade, privacidade, dignidade e agência sobre suas vidas, como um ponto de referência para um cativeiro digital mais insidioso que pode surgir. Usuários de grandes modelos de linguagem já estão sacrificando a privacidade ao contar a chatbots informações pessoais sensíveis que as empresas então extraem e monetizam, contribuindo para uma nova economia de vigilância. Liberdade e dignidade estão em jogo quando vidas interiores complexas são transformadas em fluxos de dados feitos sob medida.
Terapeutas de IA poderiam achatar a humanidade em padrões de previsão e, assim, sacrificar o cuidado íntimo e individualizado que se espera de terapeutas humanos tradicionais. “A lógica da IAP leva a um futuro em que talvez todos nós nos encontremos pacientes em um asilo algorítmico administrado por carcereiros digitais”, escreve Oberhaus. “No asilo algorítmico não há necessidade de grades na janela ou salas acolchoadas de branco porque não há possibilidade de fuga. Já está em toda parte, em suas casas e escritórios, escolas e hospitais, tribunais e quartéis. Onde quer que haja uma conexão com a internet, o asilo está esperando.”
Eoin Fullam, um pesquisador que estuda a interseção entre tecnologia e saúde mental, ecoa algumas das mesmas preocupações em “Chatbot Therapy: A Critical Analysis of AI Mental Health Treatment” (“Terapia por Chatbot: Uma Análise Crítica do Tratamento de Saúde Mental por IA”, em tradução livre). Um denso manual acadêmico, o livro analisa as suposições subjacentes aos tratamentos automatizados oferecidos por chatbots de IA e a maneira como incentivos capitalistas poderiam corromper esse tipo de ferramenta.
Fullam observa que a mentalidade capitalista por trás de novas tecnologias “frequentemente leva a práticas de negócios questionáveis, ilegítimas e ilegais, nas quais os interesses dos clientes são secundários a estratégias de dominância de mercado”.
Isso não significa que os fabricantes de bots de terapia “inevitavelmente conduzirão atividades nefastas contrárias aos interesses dos usuários na busca pela dominância de mercado”, escreve Fullam.
Mas ele observa que o sucesso depende de impulsos inseparáveis: ganhar dinheiro e curar pessoas. Nessa lógica, exploração e terapia alimentam uma à outra. Toda sessão digital gera dados que alimentam o sistema que lucra à medida que usuários não remunerados buscam cuidado. Quanto mais eficaz a terapia parece, mais o ciclo se entrincheira, tornando mais difícil distinguir entre cuidado e mercantilização. “Quanto mais os usuários se beneficiam do aplicativo em termos de sua terapêutica ou de qualquer outra intervenção em saúde mental”, ele escreve, “mais eles passam por exploração.”
Esse senso de um ouroboros econômico e psicológico, a cobra que come a própria cauda, serve como metáfora central em “Sike” (“Peguei você”, em tradução livre), o romance de estreia de Fred Lunzer, um autor com formação de pesquisa em IA.
Descrito como “uma história de um garoto que conhece uma garota, que conhece um psicoterapeuta de IA”, Sike acompanha Adrian, um jovem londrino que ganha a vida escrevendo letras de rap como ghostwriter, em seu romance com Maquie, uma profissional de negócios com talento para identificar tecnologias lucrativas na fase beta.
O título se refere a um espalhafatoso terapeuta comercial de IA chamado Sike, carregado em óculos inteligentes, que Adrian usa para interrogar suas inúmeras ansiedades. “Quando me inscrevi no Sike, montamos meu painel, um amplo painel preto como o cockpit de um avião, que mostrava meus ‘sinais vitais’ diários’”, narra Adrian. “Sike pode analisar a maneira como você anda, a maneira como você faz contato visual, as coisas sobre as quais você fala, as coisas que você veste, com que frequência você mija, caga, ri, chora, beija, mente, reclama e tosse.”
Em outras palavras, Sike é o fenotipador digital definitivo, analisando de forma constante e exaustiva tudo nas experiências diárias de um usuário. Em uma reviravolta, Lunzer escolhe fazer de Sike um produto de luxo, disponível apenas para assinantes que conseguem arcar com o preço de 2 mil libras (cerca de 14 mil reais) por mês.
Cheio de dinheiro graças às suas contribuições para uma música de sucesso, Adrian passa a depender do Sike como um mediador confiável entre seus mundos interior e exterior. O romance explora os impactos do aplicativo sobre o bem-estar dos bem-sucedidos, acompanhando pessoas ricas que voluntariamente se internam em uma versão boutique do asilo digital descrito por Oberhaus.
O único senso real de perigo em Sike envolve um ovo de tortura japonês (não pergunte). O romance, de forma estranha, contorna as repercussões distópicas mais amplas de seu tema em favor de conversas regadas a bebida em restaurantes chiques e jantares da elite.
O criador de Sike é simplesmente “um grande cara”, na avaliação de Adrian, apesar de sua visão tecno-messiânica de treinar o aplicativo para acalmar os males de nações inteiras. Sempre parece que algo ruim está prestes a acontecer, mas, no fim, isso nunca acontece, deixando o leitor com uma sensação de falta de resolução.
Embora Sike se passe nos dias atuais, algo sobre a ascensão repentina do terapeuta de IA, na vida real, assim como na ficção, parece surpreendentemente futurista, como se devesse estar se desenrolando em algum tempo posterior em que as ruas se limpam sozinhas e viajamos pelo mundo por tubos pneumáticos. Mas essa convergência entre saúde mental e Inteligência Artificial está sendo construída há mais de meio século. O querido astrônomo Carl Sagan, por exemplo, uma vez imaginou uma “rede de terminais psicoterapêuticos de computador, algo como fileiras de grandes cabines telefônicas” que poderia atender à demanda crescente por serviços de saúde mental.
Oberhaus observa que uma das primeiras encarnações de uma rede neural treinável, conhecida como Perceptron, foi concebida não por um matemático, mas por um psicólogo chamado Frank Rosenblatt, no Cornell Aeronautical Laboratory, em 1958. A utilidade potencial da IA em saúde mental foi amplamente reconhecida nos anos 1960, inspirando psicoterapeutas computadorizados iniciais, como o script DOCTOR, que rodava no chatbot ELIZA, desenvolvido por Joseph Weizenbaum, que aparece nos três livros de não ficção deste artigo.
Weizenbaum, que morreu em 2008, estava profundamente preocupado com a possibilidade de terapia computadorizada. “Computadores podem fazer julgamentos psiquiátricos”, ele escreveu em seu livro de 1976 “Computer Power and Human Reason” (“Poder Computacional e Razão Humana”, em tradução livre). “Eles podem jogar cara ou coroa de maneiras muito mais sofisticadas do que pode o ser humano mais paciente. O ponto é que eles não deveriam receber tais tarefas. Eles podem até ser capazes de chegar a decisões ‘corretas’ em alguns casos, mas sempre e necessariamente com base em fundamentos que nenhum ser humano deveria estar disposto a aceitar.”
É uma advertência que vale a pena ter em mente. À medida que terapeutas de Inteligência Artificial chegam em escala, estamos vendo se desenrolar uma dinâmica familiar: ferramentas projetadas com intenções superficialmente boas estão enredadas em sistemas que podem explorar, vigiar e remodelar o comportamento humano. Em uma tentativa frenética de destravar novas oportunidades para pacientes em necessidade urgente de apoio em saúde mental, talvez estejamos trancando outras portas atrás deles.



