Como a Inteligência Artificial poderia salvar vidas sem quebrar o sigilo médico
Health Innovation por Einstein

Como a Inteligência Artificial poderia salvar vidas sem quebrar o sigilo médico

Em 2019, o primeiro grande teste de uma plataforma que permitia que algoritmos de Inteligência Artificial (IA) aprendessem com os dados privados de pacientes estava em andamento na Stanford Medical School (EUA).

O potencial da Inteligência Artificial (IA) para transformar a assistência médica é enorme, mas há um grande problema: a privacidade.

Os algoritmos de IA precisarão de grandes quantidades de dados médicos para treinar o machine learning antes que seja possível oferecer novas e poderosas maneiras de identificar e compreender a causa das doenças. Mas não são quaisquer tipos de dados, e sim aqueles extremamente sensíveis como imagens médicas, informações genômicas ou prontuários eletrônicos de saúde.

É por isso que os pesquisadores estão trabalhando em mecanismos que permitam que a IA aprenda com grandes quantidades de dados médicos, ao passo que dificultam o vazamento dos mesmos.

Uma abordagem promissora teve seu primeiro grande teste na Stanford Medical School, na Califórnia, em 2019. Os pacientes puderam escolher se contribuiriam com seus dados médicos para um sistema de IA que estava sendo treinado para diagnosticar doenças oculares sem nunca realmente acessar seus dados pessoais.

Os participantes enviaram resultados de exames oftalmológicos e dados de prontuários de saúde por meio de um aplicativo. As informações são usadas para treinar um modelo de machine learning para identificar sinais de doenças oculares (como retinopatia diabética e glaucoma) nas imagens. Os dados eram protegidos, porém, por tecnologia desenvolvida pelo Oasis Labs, uma startup derivada da UC Berkeley (EUA), que garante que as informações não vazem ou sejam indevidamente utilizadas. A startup recebeu permissão da Stanford Medical School para iniciar o teste, em parceria com pesquisadores da UC Berkeley, Stanford e ETH Zurich (Suíça).

A vulnerabilidade dos dados privados do paciente é um problema iminente. Algoritmos de IA treinados em dados de diferentes hospitais podem diagnosticar enfermidades, prevenir doenças e prolongar vidas. Em muitos países, os prontuários médicos não podem, contudo, ser compartilhados e fornecidos a esses algoritmos por motivos legais. A pesquisa sobre o uso de IA para detectar doenças em imagens ou dados médicos geralmente envolve conjuntos de dados relativamente pequenos, o que limita muito o escopo dessa tecnologia.

“É muito empolgante poder fazer isso com dados clínicos reais”, diz Dawn Song, cofundadora da Oasis Labs e professora da UC Berkeley. “Podemos demonstrar que isso funciona de verdade”.

A Oasis armazena os dados privados do paciente em um chip seguro, projetado em colaboração com outros pesquisadores da Berkeley. Os dados permanecem na nuvem da Oasis; terceiros são capazes de executar algoritmos nos dados e receber os resultados, sem que eles saiam do sistema. Um software de contrato inteligente, que roda em cima de uma blockchain, é acionado quando uma solicitação de acesso aos dados é recebida. Este software registra como os dados foram usados e também verifica se o cálculo do machine learning foi bem-sucedido.

“Isso mostrará que podemos ajudar os pacientes a contribuir com seus dados de forma a proteger a privacidade deles”, diz Song. Ela diz que o modelo de doenças oculares se tornará mais preciso à medida que mais dados forem coletados.

Essa tecnologia também poderia facilitar a aplicação de IA a outras informações confidenciais, como dados financeiros ou hábitos de compra de indivíduos ou histórico de navegação na web. Song diz que o plano é expandir as aplicações médicas antes de olhar para outros contextos.

“A ideia de trabalhar com dados ao mesmo tempo em que mantemos o sigilo é incrivelmente poderosa”, afirma David Evans, que é especialista em machine learning e segurança na Universidade da Virgínia (EUA). Aplicado em hospitais e centros de pacientes, por exemplo, o machine learning pode descobrir maneiras inteiramente novas de relacionar doenças à genética, resultados de testes e outros dados de pacientes.

“Seria maravilhoso se um pesquisador pudesse aprender com os prontuários médicos de todos nós”, diz Evans. “Qualquer um poderia fazer uma análise e saber se uma medicação está funcionando ou não. Hoje, não há como fazer isso”.

Apesar do potencial que a Oasis representa, Evans é cauteloso. Armazenar dados em um hardware seguro cria um ponto de falha potencial, observa ele. Se a empresa que fabrica o hardware for ameaçada, todos os dados manipulados dessa forma também ficarão vulneráveis. As blockchains são relativamente inexperientes, acrescenta ele.

“Há muitas tecnologias diferentes se unindo”, diz ele sobre a abordagem da Oasis. “Algumas são maduras, outras são modernas e precisam primeiro enfrentar desafios”.

Contexto brasileiro e mundial

Falando à MIT Technology Review Brasil, o médico e consultor de Big Data Analytics do Hospital Israelita Albert Einstein Adriano José Pereira avalia que o risco de vazamento de dados é intrínseco ao desenvolvimento de algoritmos de IA. O especialista enxerga, porém, cenários nacional e global favoráveis às discussões sobre garantias do direito à privacidade. No Brasil, esse contexto tem como pano de fundo a Lei Geral de Proteção de Dados (LGPD).

“Por mais que, teoricamente, não exista anonimização perfeita — existem relatos científicos de criação de ‘contra-algoritmos’ para reidentificação de bases previamente tratadas —, é bem possível se aproximar muito da segurança máxima. E parece haver consenso amplo de que, quando técnicas adequadas são utilizadas, os benefícios potenciais do aprendizado de máquina e suas aplicações supera, em muito, os riscos quase nulos de qualquer ameaça e tipo de vazamento”, afirma Pereira.

Atualmente, são utilizadas técnicas de anonimização ou desidentificação de dados e de imagens. Quando se trata de pesquisas envolvendo pacientes, há ainda uma camada adicional de segurança. Trata-se de um processo bem-estabelecido mundialmente, por meio de aprovações obrigatórias do ponto de vista ético e fiscalização por comitês independentes de especialistas.

Também existem maneiras de nem sequer demandar o compartilhamento de dados. Para que as máquinas aprendam, são utilizadas arquiteturas específicas de aprendizado federado, por meio das quais os dados são encontrados em seus locais de origem. Dessa forma, as análises ou saídas dos modelos são consolidados ao final, prescindindo o envio e consolidação prévia das informações.

“Relatos científicos internacionais demonstram ser possível hoje, por exemplo, tornar públicos dados de grandes grupos pacientes de UTI para que possam ser usados por pesquisadores internacionais, sem expor nada que permita identificar indivíduos, inclusive harmonizando legislações deferentes regiões do globo, como dos Estados Unidos e da Europa”, exemplifica.