Máquinas podem identificar problemas de saúde mental – se você entregar seus dados pessoais
Governança

Máquinas podem identificar problemas de saúde mental – se você entregar seus dados pessoais

O diagnóstico digital pode transformar a psiquiatria, explorando seus dados mais íntimos em busca de pistas. Mas o custo da privacidade vale a pena?

Quando Neguine Rezaii se mudou para os Estados Unidos há uma década, ela hesitou em dizer às pessoas que era iraniana. Em vez disso, ela usava o termo “persa”. “Imaginei que as pessoas provavelmente não entenderiam o que isso significava”, diz ela.

A ambiguidade linguística foi útil: ela poderia ao mesmo tempo esconder seu constrangimento com o regime de Mahmoud Ahmadinejad, e continuar sendo fiel a si mesma. “Eles apenas sorriam e iam embora”, diz ela. Atualmente ela está feliz em dizer “iraniana” novamente.

Nem todos optamos por usar a linguagem de forma tão consciente quanto Rezaii – mas as palavras que usamos são importantes. Poetas, detetives e advogados há muito vasculham a linguagem das pessoas em busca de pistas para encontrar seus motivos e verdades interiores. Psiquiatras também: talvez, especialmente os psiquiatras. Afinal, embora a medicina agora tenha uma série de testes e ferramentas técnicas para diagnosticar doenças físicas, a principal ferramenta da psiquiatria é a mesma empregada séculos atrás: a pergunta “Então, como você se sente hoje?” Simples de perguntar, talvez – mas não de responder.

“Na psiquiatria, não temos nem mesmo um estetoscópio”, diz Rezaii, que agora é membro de neuropsiquiatria no Massachusetts General Hospital. “São 45 minutos conversando com um paciente e, em seguida, fazendo um diagnóstico com base nessa conversa. Não existem medidas objetivas. Não existem números”.

Não há nenhum exame de sangue para diagnosticar a depressão, nenhuma tomografia que possa identificar a ansiedade antes que ela aconteça. Os pensamentos suicidas não podem ser diagnosticados por uma biópsia e, mesmo que os psiquiatras estejam profundamente preocupados que a pandemia da Covid-19 tenha graves impactos na saúde mental, eles não têm uma maneira fácil de rastrear isso. Na linguagem da medicina, não existe um único biomarcador confiável que possa ser usado para ajudar a diagnosticar qualquer condição psiquiátrica. A busca por atalhos para encontrar a corrupção do pensamento continua sem resultados – mantendo muito da psiquiatria no passado e bloqueando o caminho para o progresso. Isso torna o diagnóstico um processo lento, difícil e subjetivo e impede os pesquisadores de compreender a verdadeira natureza e as causas do espectro das doenças mentais ou de desenvolver melhores tratamentos.

Mas e se houvesse outras maneiras? E se nós não apenas ouvíssemos as palavras, mas as medíssemos? Isso poderia ajudar os psiquiatras a seguir as pistas verbais que podem nos levar de volta ao nosso estado de espírito?

“Isso é basicamente o que queremos”, diz Rezaii. “Encontrar algumas características comportamentais às quais podemos atribuir alguns números. Sermos capazes de rastreá-las de maneira confiável e usá-las para detecção ou diagnóstico potencial de transtornos mentais”.

Em junho de 2019, Rezaii publicou um artigo sobre uma nova abordagem radical que fazia exatamente isso. Sua pesquisa mostrou que a maneira como falamos e escrevemos pode revelar indícios precoces de psicose e que os computadores podem nos ajudar a detectar esses sinais com uma precisão desconcertante. Ela seguiu as migalhas de pão da linguagem para ver aonde levavam.

Rezaii descobriu que a análise da linguagem podia prever com mais de 90% de precisão quais pacientes tinham probabilidade de desenvolver esquizofrenia antes que quaisquer sintomas típicos surgissem. 

Pessoas que têm tendência a ouvir vozes tendem a falar sobre elas. Eles não mencionam essas alucinações auditivas explicitamente, mas usam palavras associadas – “som”, “ouvir”, “cantar”, “alto” – com mais frequência em uma conversa normal. O padrão é tão sutil que você não seria capaz de detectar os sinais mesmo prestando muita atenção. Mas um computador pode identificá-los. E em testes com dezenas de pacientes psiquiátricos, Rezaii descobriu que a análise da linguagem poderia prever quais deles tinham probabilidade de desenvolver esquizofrenia com mais de 90% de precisão, antes que quaisquer sintomas típicos surgissem. Prometia um grande avanço.

No passado, a captura de informações sobre alguém ou a análise das declarações de uma pessoa para fazer um diagnóstico dependiam da habilidade, experiência e opiniões de psiquiatras individuais. Mas, graças à onipresença dos smartphones e das redes sociais, a linguagem das pessoas nunca foi tão fácil de registrar, digitalizar e analisar. E um número crescente de pesquisadores está analisando os dados que produzimos – desde nossa escolha de linguagem ou nossos padrões de sono até a frequência com que ligamos para nossos amigos e o que escrevemos no Twitter e no Facebook – para procurar sinais de depressão, ansiedade, transtorno bipolar e outras síndromes.

Para Rezaii e outros, a capacidade de coletar esses dados e analisá-los é o próximo grande avanço da psiquiatria. Eles chamam isso de “fenotipagem digital”.

Pesando suas palavras

Em 1908, o psiquiatra suíço Eugen Bleuler anunciou o nome de uma doença que ele e seus colegas estavam estudando: esquizofrenia. Ele observou como os sintomas da doença “encontram sua expressão na linguagem”, mas acrescentou: “A anormalidade não está na linguagem em si, mas no que ela tem a dizer”.

Bleuler foi um dos primeiros a se concentrar nos chamados sintomas “negativos” da esquizofrenia, a ausência de algo visto em pessoas saudáveis. São menos perceptíveis do que os chamados sintomas positivos, que indicam a presença de algo a mais, como alucinações. Um dos sintomas negativos mais comuns é alogia ou pobreza da fala. Os pacientes falam menos ou se expressam pouco quando falam, usando frases vagas, repetitivas e estereotipadas. O resultado é o que os psiquiatras chamam de baixa densidade semântica.

Ela é um sinal revelador de que um paciente pode estar em risco de psicose. A esquizofrenia, uma forma comum de psicose, tende a se desenvolver no final da adolescência ao início dos 20 anos para os homens e do final dos 20 anos ao início dos 30 para as mulheres – mas um estágio preliminar com sintomas mais leves geralmente precede a condição completa. Muitas pesquisas são realizadas com pessoas nessa fase “prodrômica”, e psiquiatras como Rezaii estão usando a linguagem e outras medidas comportamentais para tentar identificar quais pacientes prodrômicos desenvolvem esquizofrenia total e por quê. Com base em outros projetos de pesquisa que sugerem, por exemplo, que pessoas com alto risco de psicose tendem a usar menos pronomes possessivos como “meu”, “dele” ou “nosso”, Rezaii e seus colegas queriam ver se um computador poderia detectar uma baixa densidade semântica.

Os pesquisadores usaram gravações de conversas feitas ao longo da última década com dois grupos de pacientes com esquizofrenia na Emory University. Eles dividiram cada frase falada em uma série de ideias centrais para que um computador pudesse medir a densidade semântica. A frase “Bem, acho que tenho fortes sentimentos sobre política” obtém uma pontuação alta, graças às palavras “forte”, “política” e “sentimentos”.

Mas uma frase como “Agora, eu sei como ser legal com as pessoas porque é como não falar, é tipo, você sabe como ser legal com as pessoas, é como se agora eu soubesse como fazer isso” tem uma densidade semântica muito baixa.

Em um segundo teste, eles fizeram o computador contar o número de vezes que cada paciente usou palavras associadas a sons – procurando pistas sobre vozes que eles podem estar ouvindo, mas mantendo isso em segredo. Em ambos os casos, os pesquisadores deram ao computador uma linha de base da fala “normal”, alimentando-o com conversas online postadas por 30.000 usuários do Reddit.

Quando os psiquiatras encontram pessoas na fase prodrômica, eles usam um conjunto padrão de entrevistas e testes cognitivos para prever qual delas desenvolverá psicose. Eles geralmente acertam 80% das vezes. Ao combinar as duas análises de padrões de fala, o computador de Rezaii acertou pelo menos 90%.

Ela diz que ainda há um longo caminho a percorrer antes que a descoberta possa ser usada na clínica para ajudar a prever o que acontecerá com os pacientes. O estudo analisou o discurso de apenas 40 pessoas; o próximo passo seria aumentar o tamanho da amostra. Mas ela já está trabalhando em um software que pode analisar rapidamente as conversas que ela tem com os pacientes. “Você aperta o botão e ele mostra os números. Qual é a densidade semântica da fala do paciente? Quais foram as características sutis sobre as quais o paciente falou, mas não necessariamente expressou de forma explícita?” ela diz. “Seria muito legal se fosse uma maneira de acessar as camadas mais profundas e subconscientes da mente”.

Os resultados também têm uma implicação óbvia: se um computador pode detectar com segurança essas mudanças sutis, por que não monitorar continuamente as pessoas em risco?

Mais do que esquizofrenia

Cerca de uma em cada quatro pessoas em todo o mundo sofrerá de uma síndrome psiquiátrica durante sua vida. Duas em cada quatro agora possuem um smartphone. Usar os dispositivos para capturar e analisar padrões de fala e texto pode funcionar como um sistema de alerta precoce. Isso daria aos médicos tempo para intervir junto às pessoas sob maior risco, talvez para observá-las mais de perto – ou mesmo para tentar terapias para reduzir a chance de um evento psicótico.

Os pacientes também podem usar a tecnologia para monitorar seus próprios sintomas. Pacientes com problemas de saúde mental costumam ser narradores não confiáveis quando se trata de sua saúde – incapazes ou relutantes em identificar seus sintomas. Mesmo o monitoramento digital de medições básicas, como o número de horas de sono que alguém está dormindo, pode ajudar, diz Kit Huckvale, um pós-doutorado que trabalha com saúde digital no Black Dog Institute em Sydney, porque pode alertar os pacientes quando eles podem estar mais vulneráveis a uma queda em suas condições.

Não é apenas esquizofrenia que pode ser detectada com a ajuda de uma máquina. Ao analisar os telefones das pessoas, os psiquiatras foram capazes de captar os sinais sutis que precedem um episódio bipolar.

“Usando esses computadores que todos carregamos conosco, talvez tenhamos acesso a informações sobre mudanças de comportamento, cognição ou experiência que fornecem fortes sinais sobre doenças mentais futuras”, diz ele. “Ou, de fato, apenas os primeiros estágios de angústia”.

E não é apenas esquizofrenia que pode ser detectada com uma máquina. Provavelmente, o uso mais avançado da fenotipagem digital é prever o comportamento de pessoas com transtorno bipolar. Ao analisar os telefones das pessoas, os psiquiatras foram capazes de captar os sinais sutis que precedem um episódio. Quando uma queda de humor está chegando, os sensores GPS em telefones de pacientes bipolares mostram que eles tendem a ser menos ativos. Eles atendem menos as chamadas recebidas, fazem menos chamadas e geralmente passam mais tempo olhando para a tela. Em contraste, antes de uma fase maníaca, eles andam mais, enviam mais mensagens de texto e passam mais tempo falando ao telefone.

Em março de 2017, centenas de pacientes que receberam alta de hospitais psiquiátricos nos arredores de Copenhague começaram a receber telefones personalizados emprestados para que os médicos pudessem checar remotamente suas atividades e verificar se há sinais de mau humor ou mania. Se os pesquisadores detectarem padrões incomuns ou preocupantes, os pacientes são convidados a falar com uma enfermeira. Ao observar e reagir aos primeiros sinais de alerta desta forma, o estudo visa reduzir o número de pacientes que apresentam uma recaída grave.

Esses projetos buscam o consentimento dos participantes e prometem manter os dados confidenciais. Mas, à medida que os detalhes sobre saúde mental são engolidos para o mundo dos grandes volumes de dados, os especialistas levantam questões sobre privacidade.

“A adoção dessa tecnologia está definitivamente ultrapassando a regulamentação legal. Está até ultrapassando o debate público”, diz Piers Gooding, que estuda leis e políticas de saúde mental no Melbourne Social Equity Institute, na Austrália. “É preciso haver um debate público sério sobre o uso de tecnologias digitais no contexto da saúde mental”.

Os cientistas já usaram vídeos postados por famílias no YouTube – sem buscar consentimento explícito – para treinar computadores para encontrar movimentos corporais característicos de crianças com autismo. Outros analisaram as postagens do Twitter para ajudar a rastrear comportamentos associados à transmissão do HIV, enquanto as seguradoras de Nova Iorque têm permissão oficial para estudar os feeds do Instagram das pessoas antes de calcularem seus prêmios de seguro de vida.

À medida que a tecnologia rastreia e analisa nossos comportamentos e estilos de vida com cada vez mais precisão – às vezes com nosso conhecimento disso e às vezes sem – as oportunidades para outros monitorarem remotamente nosso estado mental estão crescendo rapidamente.

Proteções de privacidade

Em teoria, as leis de privacidade devem evitar que dados de saúde mental sejam repassados. Nos EUA, o estatuto da Lei de Portabilidade e Responsabilidade do Seguro de Saúde (em inglês, HIPAA) de 24 anos regula o compartilhamento de dados médicos, e a lei de proteção de dados da Europa, o Regulamento Geral sobre a Proteção de Dados (GDPR), teoricamente também deveria impedir isso. Mas um relatório de 2019 de vigilância da Privacy International descobriu que sites populares sobre depressão na França, Alemanha e Reino Unido compartilhavam dados de usuários com anunciantes, corretores de dados e grandes empresas de tecnologia, enquanto alguns sites que ofereciam testes de depressão vazavam respostas e resultados para terceiros.

Gooding destaca que por vários anos a polícia canadense passava detalhes sobre as pessoas que tentaram suicídio aos oficiais da fronteira dos Estados Unidos, que então recusariam a entrada delas no país. Em 2017, uma investigação concluiu que a prática era ilegal e foi interrompida.

Poucos contestariam que isso foi uma invasão de privacidade. Afinal, a informação médica é sagrada. Mesmo quando são feitos diagnósticos de doenças mentais, as leis em todo o mundo devem prevenir a discriminação no local de trabalho e em outros lugares.

Mas alguns especialistas em ética temem que a fenotipagem digital confunda os limites do que poderia ou deveria ser classificado, regulamentado e protegido como dados médicos.

Se as minúcias de nossa vida diária forem peneiradas em busca de pistas para nossa saúde mental, então nosso “escape digital” – dados sobre quais palavras escolhemos, com que rapidez respondemos a textos e ligações, com que frequência deslizamos para a esquerda, quais postagens escolhemos dar like – poderia dizer aos outros tanto sobre nosso estado de espírito quanto o que está em nossos registros médicos confidenciais. E isso é quase impossível esconder.

“A tecnologia nos empurrou para além dos paradigmas tradicionais que deveriam proteger certos tipos de informação”, diz Nicole Martinez-Martin, bioética em Stanford. “Quando todos os dados são potencialmente dados de saúde, então há um monte de perguntas sobre se esse tipo de excepcionalidade de informações de saúde ainda faz sentido”.

As informações de saúde, acrescenta ela, costumavam ser simples de classificar – e, portanto, proteger – porque eram produzidas por profissionais de saúde e mantidas em instituições de saúde, cada uma das quais tinha seus próprios regulamentos para salvaguardar as necessidades e direitos dos seus pacientes. Agora, muitas maneiras de rastrear e monitorar a saúde mental usando sinais de nossas ações diárias estão sendo desenvolvidas por empresas comerciais, que não tem regulamentos ou não são voltadas para a área.

O Facebook, por exemplo, afirma usar algoritmos de Inteligência Artificial para encontrar pessoas em risco de suicídio, examinando a linguagem das postagens e comentários preocupados de amigos e familiares. A empresa diz que alertou as autoridades para ajudar pessoas em pelo menos 3.500 casos. Mas pesquisadores independentes reclamam que ele não revelou como seu sistema funciona ou o que faz com os dados que coleta.

“Embora os esforços de prevenção do suicídio sejam de vital importância, essa não é a resposta”, diz Gooding. “Não há pesquisas sobre a precisão, escala ou eficácia da iniciativa, nem informações sobre o que exatamente a empresa faz com esses dados após cada aparente crise. Está basicamente escondido atrás de uma cortina de leis de sigilo comercial”.

Os problemas não são apenas do setor privado. Embora os pesquisadores que trabalham em universidades e institutos de pesquisa estejam sujeitos a uma rede de permissões para garantir consentimento, privacidade e aprovação ética, algumas práticas acadêmicas podem realmente encorajar e permitir o uso indevido da fenotipagem digital, ressalta Rezaii.

“Quando publiquei meu artigo sobre a previsão da esquizofrenia, os editores queriam que o código fosse abertamente acessível, e eu disse que tudo bem porque estava interessada em coisas liberais e gratuitas. Mas e se alguém usar isso para construir um aplicativo e prognosticar coisas em adolescentes esquisitos? Isso é arriscado,” diz ela. “Os periódicos têm defendido a publicação gratuita dos algoritmos. Ele foi baixado 1.060 vezes até agora. Não sei com que propósito, e isso me incomoda”.

Além das questões de privacidade, alguns temem que a fenotipagem digital seja simplesmente exagerada.

Serife Tekin, que estuda a filosofia da psiquiatria na Universidade do Texas em San Antonio, diz que os psiquiatras têm uma longa história de se atirarem na última tecnologia como forma de tentar fazer seus diagnósticos e tratamentos parecerem mais baseados em evidências. De lobotomias a promessas coloridas de tomografias, a área tende a se mover com enormes ondas de otimismo acrítico que mais tarde se provam infundadas, diz ela – e a fenotipagem digital poderia ser simplesmente o exemplo mais recente.

“A psiquiatria contemporânea está em crise”, diz ela. “Mas é questionável se a solução para a crise na pesquisa em saúde mental é a fenotipagem digital. Quando colocamos todos os nossos ovos na mesma cesta, isso não envolve realmente a complexidade do problema”.

Tornando a saúde mental mais moderna?

Neguine Rezaii sabe que ela e outras pessoas que trabalham com fenotipagem digital às vezes ficam cegas pelo potencial brilhante da tecnologia. “Há coisas em que não pensei porque estamos muito entusiasmados em obter o máximo de dados possível sobre esse sinal oculto na linguagem”, diz ela.

Mas ela também sabe que a psiquiatria confiou por muito tempo em pouco mais do que suposições informadas. “Não queremos fazer inferências questionáveis sobre o que o paciente pode ter dito ou quis dizer se há uma maneira de descobrir objetivamente”, diz ela. “Queremos gravá-los, apertar um botão e obter alguns números. No final da consulta, temos os resultados. Esse é o ideal. É nisso que estamos trabalhando”.

Para Rezaii, é natural que os psiquiatras modernos queiram usar smartphones e outras tecnologias disponíveis. As discussões sobre ética e privacidade são importantes, diz ela, assim como é a consciência de que as empresas de tecnologia já colhem informações sobre nosso comportamento e as usam – sem nosso consentimento – para fins menos nobres, como decidir quem pagará mais por viagens de táxi idênticas ou espere mais para ser pego.

“Vivemos em um mundo digital. As coisas sempre podem ser abusadas”, diz ela. “Uma vez que um algoritmo está disponível, as pessoas podem pegá-lo e usá-lo em outras pessoas. Não há como evitar isso. Pelo menos no mundo médico, pedimos consentimento”.

Último vídeo

Nossos tópicos