Como cientistas estão tentando usar a Inteligência Artificial para desvendar a mente
Inteligência artificial

Como cientistas estão tentando usar a Inteligência Artificial para desvendar a mente

Compreender o ser humano é difícil. Compreender a tecnologia não é muito mais fácil.

O que você encontrará neste artigo:

Redes neurais e a relação com a mente humana
O modelo Centaur e suas previsões sobre comportamento humano
Redes minúsculas para o estudo da cognição

O cenário atual da Inteligência Artificial é definido pelas maneiras pelas quais redes neurais não se assemelham ao cérebro humano. Uma criança pequena aprende a se comunicar de forma eficaz com apenas mil calorias por dia e conversas regulares. Enquanto isso, empresas de tecnologia estão reativando usinas nucleares, poluindo comunidades marginalizadas e pirateando terabytes de livros para treinar e executar seus grandes modelos de linguagem (Large Language Models, ou LLM).

Mini Banner - Assine a MIT Technology Review

Mas redes neurais são, afinal, neurais. Elas são inspiradas em cérebros. Apesar de seus apetites vastamente diferentes por energia e dados, modelos de linguagem de grande escala e cérebros humanos compartilham bastante coisa em comum. Ambos são compostos por milhões de subcomponentes: neurônios biológicos, no caso do cérebro, e “neurônios” simulados, no caso das redes. São as duas únicas coisas na Terra que conseguem produzir linguagem de forma fluente e flexível. E os cientistas mal compreendem como qualquer um dos dois funciona.

Posso atestar essas semelhanças: cheguei ao jornalismo e à IA, após seis anos na pós-graduação em neurociência. É uma visão comum entre neurocientistas que construir redes neurais semelhantes ao cérebro é um dos caminhos mais promissores para a área, e essa atitude começou a se espalhar para a psicologia. Na semana passada, a prestigiada revista “Nature” publicou dois estudos que destacam o uso de redes neurais para prever como humanos e outros animais se comportam em experimentos psicológicos. Ambos estudos propõem que essas redes treinadas poderiam ajudar os cientistas a avançar na compreensão da mente humana. Mas prever um comportamento e explicar como ele surgiu são duas coisas muito diferentes.

Em um dos estudos, os pesquisadores transformaram um modelo de linguagem de grande escala no que eles chamam de “modelo fundamental da cognição humana.” De forma imediata, os modelos de linguagem de grande escala não são muito bons em imitar o comportamento humano. Eles agem de forma lógica em contextos nos quais os humanos abandonam a razão, como cassinos. Assim, os pesquisadores ajustaram o Llama 3.1, um dos LLMs de código aberto da Meta, com base em dados de uma série de 160 experimentos de psicologia, que envolviam tarefas como escolher entre um conjunto de “máquinas caça-níqueis” para obter o maior prêmio ou lembrar sequências de letras. Eles chamaram o modelo resultante de Centaur.

Comparando a modelos psicológicos convencionais, que utilizam equações matemáticas simples, o Centaur teve um desempenho muito melhor na previsão de comportamentos. Previsões precisas de como os humanos respondem em experimentos de psicologia são valiosas por si só. Por exemplo, cientistas poderiam usar o Centaur para testar seus experimentos no computador antes de recrutar e pagar participantes humanos. No entanto, em seu artigo, os pesquisadores propõem que o Centaur pode ser mais do que apenas uma máquina de previsões. Ao investigar os mecanismos que permitem ao modelo replicar eficazmente o comportamento humano, eles argumentam, os cientistas poderiam desenvolver novas teorias sobre o funcionamento interno da mente.

Mas alguns psicólogos duvidam que o Centaur possa nos dizer muita coisa sobre a mente. Claro, ele é melhor do que os modelos psicológicos convencionais para prever como os humanos se comportam, mas também possui um bilhão de vezes mais parâmetros. E o fato de um modelo se comportar como um humano por fora não significa que ele funcione como um por dentro. Olivia Guest, professora assistente de ciência cognitiva computacional na Universidade Radboud, na Holanda, compara o modelo a uma calculadora, que pode prever com eficácia a resposta que um gênio da matemática dará ao ser solicitado a somar dois números. “Não sei o que você aprenderia sobre a adição humana estudando uma calculadora”, diz ela.

Mesmo que o Centaur realmente capture algo importante sobre a psicologia humana, os cientistas podem ter dificuldade para extrair qualquer insight dos milhões de neurônios do modelo. Embora pesquisadores de IA estejam se esforçando para entender como funcionam os modelos de linguagem de grande escala, eles mal conseguiram começar a desvendar essa caixa-preta. Compreender um modelo de rede neural enorme como a mente humana pode não ser muito mais fácil do que compreender a própria mente.

Uma abordagem alternativa é reduzir a escala. O segundo dos dois estudos publicados na Nature foca em redes neurais minúsculas, algumas delas contendo apenas um único neurônio, que, mesmo assim, conseguem prever comportamentos em camundongos, ratos, macacos e até humanos. Como essas redes são tão pequenas, é possível acompanhar a atividade de cada neurônio individual e usar esses dados para entender como a rede está produzindo suas previsões comportamentais. E, embora não haja garantia de que esses modelos funcionem como os cérebros que foram treinados para imitar, eles podem, ao menos, gerar hipóteses testáveis sobre a cognição humana e animal.

Há um custo para a compreensão. Ao contrário do Centaur, que foi treinado para imitar o comportamento humano em dezenas de tarefas diferentes, cada rede minúscula só consegue prever o comportamento em uma tarefa específica. Uma dessas redes, por exemplo, é especializada em fazer previsões sobre como as pessoas escolhem entre diferentes máquinas caça-níqueis. “Se o comportamento é realmente complexo, você precisa de uma rede grande”, diz Marcelo Mattar, professor assistente de psicologia e neurociência na Universidade de Nova York, que liderou o estudo das redes minúsculas e também contribuiu para o Centaur. “O acordado, claro, é que agora entendê-la se torna muito, muito difícil.”

Essa relação entre previsão e compreensão é uma característica central da ciência movida por redes neurais. (Aliás, estou escrevendo um livro sobre isso.) Estudos como o de Mattar estão avançando um pouco na tentativa de fechar essa lacuna. Por menores que sejam suas redes, elas conseguem prever comportamentos com mais precisão do que os modelos psicológicos tradicionais. O mesmo vale para as pesquisas sobre interpretabilidade de grandes modelos de linguagem que estão sendo conduzidas em lugares como a Anthropic. Por ora, no entanto, nossa compreensão de sistemas complexos, de humanos a sistemas climáticos e proteínas, está ficando cada vez mais atrás da nossa capacidade de fazer previsões sobre eles.

Último vídeo

Nossos tópicos