Os cientistas descobriram uma maneira de decodificar os sinais do cérebro em discurso
Biotecnologia

Os cientistas descobriram uma maneira de decodificar os sinais do cérebro em discurso

É um passo em direção a um sistema que permitiria às pessoas enviar textos direto de seus cérebros.

Você não precisa pensar muito a respeito: quando você fala, seu cérebro envia sinais aos lábios, língua, mandíbula e laringe, que trabalham juntos para produzir os sons pretendidos.

Agora, os cientistas em San Francisco dizem que utilizaram esses sinais cerebrais para criar um dispositivo capaz de emitir frases completas, como “Não lave a louça suja de Charlie” e “Equipamentos fundamentais precisam de manutenção adequada”.

A pesquisa é um passo em direção a um sistema que seria capaz de ajudar pessoas com paralisia severa a falar — e, talvez um dia, dispositivos disponibilizados para o comércio que permitem que qualquer pessoa envie um texto direto do cérebro.

Uma equipe liderada pelo neurocirurgião Edward Chang, da Universidade da Califórnia, em San Francisco, analisou o cérebro de cinco pessoas com epilepsia, que já estavam passando por uma cirurgia no cérebro, enquanto falavam frases de uma lista com 100 possibilidades.

Quando a equipe de Chang posteriormente adicionou os sinais em um modelo de computador do sistema vocal humano, ele gerou uma fala sintetizada que era quase inteligível.

[áudio]

Uma amostra da fala gerada pela decodificação dos sinais cerebrais de um paciente.

O dispositivo não capta pensamentos abstratos, mas identifica a ativação dos nervos enquanto dizem aos seus órgãos vocais para se moverem. Anteriormente, os pesquisadores usaram esses sinais motores de outras partes do cérebro para controlar braços robóticos.

“Estamos acessando as partes do cérebro que controlam esses movimentos — estamos tentando decodificá-los, em vez de falar diretamente”, diz Chang.

No experimento de Chang, os sinais foram registrados usando eletrodos flexíveis em um aparelho chamado matriz de eletrocorticografia, ou ECoG, que fica na superfície do cérebro.

Para testar o quão bem os sinais podem ser usados ​​para recriar o que os pacientes disseram, os pesquisadores apresentaram os resultados sintetizados para pessoas que trabalham no Mechanical Turk, um site colaborativo, que tentaram transcrevê-los usando um conjunto de palavras possíveis. Esses ouvintes conseguiam entender cerca de 50% a 70% das palavras, em média.

“Este é provavelmente o melhor trabalho que está sendo feito em BCI [interfaces cérebro-computador] no momento”, diz Andrew Schwartz, um pesquisador sobre essas tecnologias na Universidade de Pittsburgh. Ele diz que se os pesquisadores colocassem sondas dentro do tecido cerebral, não apenas sobre o cérebro, a precisão poderia ser muito maior.

Esforços anteriores procuraram reconstruir palavras ou sons de palavras a partir de sinais cerebrais. Em janeiro de 2019, por exemplo, pesquisadores da Universidade de Columbia mediram sinais na parte auditiva do cérebro enquanto os pacientes ouviam outra pessoa falar os números de 0 a 9. Eles foram então capazes de determinar qual número havia sido ouvido.

As BCI ainda não são avançadas o suficiente, nem simples o suficiente, para ajudar as pessoas que estão paralisadas, embora isso seja um objetivo dos cientistas.

Em 2018, outro pesquisador da Universidade da Califórnia em São Francisco (UCSF) começou a recrutar pessoas com Esclerose Lateral Amiotrófica (ELA), ou doença de Lou Gehrig, para receber implantes de ECoG. Esse estudo tentará sintetizar a fala, de acordo com uma descrição do ensaio do teste, bem como solicitar aos pacientes que controlem um exoesqueleto que sustenta seus braços.

Chang diz que seu próprio sistema não está sendo testado em pacientes. E ainda não está claro se funcionaria para pessoas que não conseguem mover a boca. A equipe UCSF diz que seu dispositivo não funcionou tão bem quando eles pediram aos oradores que pronunciassem as palavras silenciosamente em vez de dizê-las em voz alta.

Algumas empresas do Vale do Silício disseram que esperam desenvolver leitores cerebrais comerciais de pensamento para texto. Uma delas, o Facebook, diz que está financiando pesquisas relacionadas na UCSF “para revelarem a primeira interface de fala silenciosa capaz de digitar 100 palavras por minuto”, segundo um porta-voz.

O Facebook não pagou pelo estudo atual e a UCSF se recusou a descrever que outras pesquisas estão fazendo em nome do gigante da mídia social. Mas o Facebook afirma ver que o sistema implantado é um passo em direção ao tipo de dispositivo de consumo que deseja criar.

“Este objetivo está bem alinhado com a missão da UCSF de desenvolver uma prótese de comunicação implantável para pessoas que não falam — uma missão que apoiamos. O Facebook não está desenvolvendo produtos que requerem dispositivos implantáveis, mas a pesquisa na UCSF pode fundamentar pesquisas em tecnologias não invasivas”, disse a empresa.

Chang diz que “não está ciente” de nenhuma tecnologia capaz de funcionar fora do cérebro, onde os sinais se misturam e se tornam difíceis de ler.

“O estudo que fizemos envolveu pessoas que passaram por uma neurocirurgia.  Não temos realmente conhecimento da tecnologia não invasiva disponível atualmente que possa permitir que você faça isso sem precisar abrir a cabeça”, diz ele. “Acredite em mim, se existisse teria profundas aplicações médicas”.

Nossos tópicos