Por que devemos agradecer aos pombos por nossos avanços em IA
Inteligência artificial

Por que devemos agradecer aos pombos por nossos avanços em IA

O animal nunca recebeu muito crédito por ser inteligente. Mas o aprendizado por reforço que alimenta os sistemas de IA mais avançados do mundo é muito mais parecido com o de um pombo do que com o de um humano.

Em 1943, enquanto os físicos mais brilhantes do mundo dividiam átomos para o Projeto Manhattan, o psicólogo americano B.F. Skinner liderava seu próprio projeto secreto do governo para vencer a Segunda Guerra Mundial.

Mini Banner - Assine a MIT Technology Review

Skinner não tinha como objetivo criar uma nova classe de armas maiores e mais destrutivas. Em vez disso, queria tornar as bombas convencionais mais precisas. A ideia lhe ocorreu enquanto olhava pela janela do trem a caminho de uma conferência acadêmica. “Vi um bando de pássaros levantando voo e girando em formação enquanto seguiam ao lado do trem”, escreveu ele. “De repente, vi-os como ‘dispositivos’ com excelente visão e capacidade de manobra. Será que não poderiam guiar um míssil?”

Skinner começou sua pesquisa de mísseis com corvos, mas as aves negras e inteligentes mostraram-se difíceis de controlar. Então, ele foi até uma loja local que vendia pombos para restaurantes chineses — e assim nasceu o “Projeto Pombo”. Embora os pombos-comuns (Columba livia) não fossem exatamente considerados animais inteligentes, revelaram-se sujeitos de laboratório notavelmente cooperativos. Skinner recompensava as aves com comida quando bicavam o alvo correto em fotografias aéreas — e acabou planejando prender os pombos em um dispositivo no nariz de uma ogiva, que eles guiariam bicando o alvo projetado em uma tela por meio de uma lente.

O exército nunca chegou a usar os pombos kamikazes de Skinner, mas seus experimentos o convenceram de que o pombo era “um instrumento extremamente confiável” para estudar os processos fundamentais da aprendizagem. “Usamos pombos não porque o pombo seja uma ave inteligente, mas porque é prática — e pode ser transformada em uma máquina”, afirmou ele em 1944.

Pessoas que procuram precursores da Inteligência Artificial costumam apontar para a ficção científica de autores como Isaac Asimov ou para experimentos de pensamento como o teste de Turing. Mas um precursor igualmente importante — embora surpreendente e menos reconhecido — é a pesquisa de Skinner com pombos, em meados do século XX. Skinner acreditava que a associação — aprender, por tentativa e erro, a ligar uma ação a um castigo ou a uma recompensa — era o bloco de construção de todo comportamento, não apenas em pombos, mas em todos os organismos vivos, incluindo os seres humanos. As suas teorias “behavioristas” caíram em desuso entre psicólogos e pesquisadores de animais na década de 1960, mas foram adotadas por cientistas da computação que, por fim, forneceram a base para muitas das ferramentas de IA de empresas líderes como Google e OpenAI.

Os programas dessas empresas vêm incorporando cada vez mais um tipo de aprendizado de máquina cujo conceito central — reforço — é diretamente extraído da escola de psicologia de Skinner e cujos principais arquitetos, os cientistas da computação Richard Sutton e Andrew Barto, venceram o Prêmio Turing de 2024, honra amplamente considerada o Prêmio Nobel da computação. O aprendizado por reforço ajudou a capacitar computadores a dirigir carros, resolver problemas matemáticos complexos e derrotar grandes mestres em jogos como xadrez e Go — mas não fez isso emulando os mecanismos complexos da mente humana. Em vez disso, supercarregou os processos associativos simples do cérebro do pombo.

É uma “lição amarga” de 70 anos de pesquisa em IA, escreveu Sutton: a inteligência humana não funcionou como modelo para o aprendizado de máquina — em vez disso, os humildes princípios do aprendizado associativo é que alimentam os algoritmos que hoje conseguem simular ou superar humanos em uma variedade de tarefas. Se a Inteligência Artificial estiver mesmo perto de se livrar do jugo de seus criadores, como muitos temem, então nossos senhores computacionais podem ser menos parecidos conosco do que com “ratos com asas” — e cérebros do tamanho de um planeta. E mesmo que não seja assim, o cérebro do pombo ao menos pode ajudar a desmistificar uma tecnologia que muitos temem (ou celebram) estar “tornando-se humana”.

Por sua vez, os feitos recentes da IA estão levando alguns pesquisadores de animais a repensar a evolução da inteligência natural. Johan Lind, biólogo da Universidade de Estocolmo, escreveu sobre o “paradoxo do aprendizado associativo”, segundo o qual o processo é amplamente descartado por biólogos como simples demais para produzir comportamentos complexos em animais, mas celebrado por produzir comportamentos semelhantes aos humanos em computadores. A pesquisa sugere não apenas um papel maior para o aprendizado associativo na vida de animais inteligentes como chimpanzés e corvos, mas também uma complexidade muito maior na vida de animais que há muito consideramos simplórios, como o comum Columba livia.

Quando Sutton começou a trabalhar em IA, sentia que tinha uma “arma secreta”, ele me disse: havia estudado psicologia na graduação. “Eu estava garimpando a literatura psicológica sobre animais”, afirma.

Ivan Pavlov começou a desvendar a mecânica do aprendizado associativo no final do século 19 com seus famosos experimentos sobre o “condicionamento clássico”, que mostraram que os cães salivavam diante de um estímulo neutro — como um sino ou luz piscando — se fosse associado de forma previsível à apresentação de comida. No meio do século 20, Skinner pegou os princípios de condicionamento de Pavlov e os estendeu dos reflexos involuntários dos animais para seu comportamento geral.

Skinner escreveu que “o comportamento é moldado e mantido por suas consequências” — ou seja, uma ação aleatória com resultados desejáveis, como pressionar uma alavanca que libera uma bolinha de comida, será “reforçada”, fazendo com que o animal tenha mais chances de repeti-la. Skinner reforçou o comportamento dos animais de laboratório passo a passo, ensinando ratos a manipular bolinhas e pombos a tocar melodias simples em pianos de quatro teclas. Os animais aprenderam cadeias de comportamentos, por tentativa e erro, a fim de maximizar as recompensas de longo prazo. Skinner argumentava que esse tipo de aprendizado associativo, que ele chamou de “condicionamento operante” (e que outros psicólogos chamaram de “aprendizado instrumental”), era o bloco de construção de todo comportamento. Ele acreditava que a psicologia deveria estudar apenas comportamentos que pudessem ser observados e medidos, sem jamais fazer referência a um “agente interno” na mente.

Skinner acreditava que até mesmo a linguagem humana se desenvolvia por meio do condicionamento operante, com as crianças aprendendo os significados das palavras por meio de reforços. Mas seu livro de 1957 sobre o assunto, Verbal Behavior, provocou uma crítica brutal de Noam Chomsky, e o foco da psicologia começou a mudar, passando do comportamento observável para as “habilidades cognitivas” inatas da mente humana, como lógica e pensamento simbólico. Os biólogos logo se rebelaram contra o behaviorismo também, atacando a busca dos psicólogos para explicar a diversidade do comportamento animal por meio de um mecanismo elementar e universal. Eles argumentaram que cada espécie evoluiu comportamentos específicos adaptados ao seu habitat e estilo de vida, e que a maioria dos comportamentos era herdada, não aprendida.

Na década de 1970, quando Sutton começou a ler sobre os experimentos de Skinner e outros semelhantes, muitos psicólogos e pesquisadores interessados em inteligência já haviam avançado dos pombos de cérebro pequeno, que aprendem principalmente por associação, para animais de cérebro maior com comportamentos mais sofisticados, que sugeriam habilidades cognitivas potenciais. “Isso claramente era coisa velha que não empolgava mais as pessoas”, ele me disse. Ainda assim, Sutton achou esses experimentos antigos instrutivos para o aprendizado de máquina: “Eu estava chegando à IA com uma mentalidade de teórico do aprendizado animal e vendo a grande falta de algo como o aprendizado instrumental na engenharia.”

Muitos engenheiros na segunda metade do século 20 tentaram modelar a IA com base na inteligência humana, criando programas complexos que tentavam imitar o pensamento humano e implementar regras que governam a resposta e o comportamento humanos. Essa abordagem — comumente chamada de “IA simbólica” — era severamente limitada; os programas tropeçavam em tarefas que eram fáceis para as pessoas, como reconhecer objetos e palavras. Não era possível escrever no código as inúmeras regras de classificação que os seres humanos usam para, por exemplo, separar maçãs de laranjas ou gatos de cachorros — e sem reconhecimento de padrões, avanços em tarefas mais complexas, como resolução de problemas, jogos e tradução de idiomas, também pareciam improváveis. Esses cientistas da computação, escreveu o cético da IA Hubert Dreyfus em 1972, não conseguiram mais do que “um pequeno triunfo da engenharia, uma solução ad hoc para um problema específico, sem aplicabilidade geral.”

A pesquisa com pombos, no entanto, sugeriu outra abordagem. Um estudo de 1964 mostrou que os pombos podiam aprender a discriminar entre fotografias com pessoas e fotografias sem pessoas. Os pesquisadores simplesmente apresentaram às aves uma série de imagens e recompensaram-nas com uma bolinha de comida quando bicavam uma imagem mostrando uma pessoa. Inicialmente, eles bicavam aleatoriamente, mas rapidamente aprenderam a identificar as imagens corretas, incluindo fotos em que as pessoas estavam parcialmente obscurecidas. Os resultados sugeriram que não era necessário ter regras para classificar objetos; era possível aprender conceitos e usar categorias apenas por meio do aprendizado associativo.

Quando Sutton começou a trabalhar com Barto em IA no final dos anos 70, eles queriam criar um “agente completo e interativo, orientado por metas”, que pudesse explorar e influenciar seu ambiente como um pombo ou rato. “Sempre sentimos que os problemas que estávamos estudando estavam mais próximos do que os animais tinham que enfrentar na evolução para realmente sobreviver”, disse Barto. O agente precisava de duas funções principais: busca, para tentar e escolher entre muitas ações em uma situação, e memória, para associar uma ação à situação onde resultou em uma recompensa. Sutton e Barto chamaram sua abordagem de “aprendizado por reforço”; como Sutton disse, “é basicamente aprendizado instrumental”. Em 1998, publicaram a exploração definitiva do conceito em um livro, Reinforcement Learning: An Introduction.

Nos 20 anos seguintes, à medida que o poder de computação cresceu exponencialmente, tornou-se possível treinar IA em tarefas cada vez mais complexas — isto é, essencialmente, fazer o “pombo” da IA passar por milhões de experimentos adicionais.

Programas treinados com uma combinação de input humano e aprendizado por reforço derrotaram especialistas humanos em xadrez e Atari. Então, em 2017, engenheiros do Google DeepMind construíram o programa de IA AlphaGo Zero inteiramente por meio de aprendizado por reforço, dando-lhe uma recompensa numérica de +1 para cada partida de Go que vencesse e −1 para cada partida que perdesse. Programado para buscar a recompensa máxima, começou sem nenhum conhecimento sobre Go, mas melhorou ao longo de 40 dias até atingir o que seus criadores chamaram de “desempenho sobre-humano”. Não apenas conseguiu derrotar os melhores jogadores humanos do mundo no Go, um jogo considerado até mais complicado que o xadrez, mas também pioneirou novas estratégias que jogadores profissionais agora utilizam.

“A humanidade acumulou conhecimento sobre o Go com milhões de jogos jogados ao longo de milhares de anos”, escreveram os construtores do programa na Nature em 2017. “Em questão de poucos dias, começando do zero, o AlphaGo Zero foi capaz de redescobrir grande parte desse conhecimento sobre o Go, bem como estratégias novas que fornecem novos insights sobre o mais antigo dos jogos.” O principal pesquisador da equipe foi David Silver, que estudou aprendizado por reforço sob a orientação de Sutton na Universidade de Alberta.

Hoje, cada vez mais empresas de tecnologia têm adotado o aprendizado por reforço em produtos como chatbots e agentes voltados para o consumidor. A primeira geração de IA generativa, incluindo grandes modelos de linguagem como o GPT-2 e GPT-3 da OpenAI, utilizou uma forma mais simples de aprendizado associativo chamada “aprendizado supervisionado”, que treinava o modelo com conjuntos de dados rotulados por pessoas. Programadores frequentemente usavam o reforço para aprimorar seus resultados, pedindo que as pessoas avaliassem o desempenho de um programa e depois devolviam essas avaliações ao programa como metas a serem perseguidas. (Pesquisadores chamam isso de “aprendizado por reforço a partir do feedback”.)

Então, no outono passado, a OpenAI revelou sua série de grandes modelos de linguagem, que classifica como modelos de “raciocínio”. A empresa pioneira em IA se gabou de que esses modelos são “treinados com aprendizado por reforço para realizar raciocínio” e afirmou que são capazes de “uma longa cadeia interna de pensamento.” A startup chinesa DeepSeek também usou aprendizado por reforço para treinar seu modelo de linguagem de “raciocínio”, o R1. “Em vez de ensinar explicitamente o modelo sobre como resolver um problema, simplesmente fornecemos os incentivos corretos, e ele desenvolve autonomamente estratégias avançadas de resolução de problemas”, explicaram.

Essas descrições podem impressionar os usuários, mas, pelo menos psicologicamente falando, estão confusas. Um computador treinado com aprendizado por reforço precisa apenas de busca e memória, não de raciocínio ou qualquer outro mecanismo cognitivo, para formar associações e maximizar recompensas. Alguns cientistas da computação têm criticado a tendência de antropomorfizar o “pensamento” desses modelos, e uma equipe de engenheiros da Apple recentemente publicou um artigo apontando sua falha em certas tarefas complexas e “levantando questões cruciais sobre suas verdadeiras capacidades de raciocínio.”

Sutton também descartou as alegações de raciocínio como “marketing” em um e-mail, acrescentando que “nenhum acadêmico sério da mente usaria ‘raciocínio’ para descrever o que está acontecendo nos LLMs.” Ainda assim, ele argumentou, junto com Silver e outros coautores, que o método dos pombos — aprender, por tentativa e erro, quais ações resultam em recompensas — é “suficiente para impulsionar comportamentos que exibem a maioria, senão todas, as habilidades estudadas na inteligência natural e artificial”, incluindo a linguagem humana “em toda a sua riqueza.”

Em um artigo publicado em abril, Sutton e Silver afirmaram que “a tecnologia de hoje, com algoritmos adequadamente escolhidos, já oferece uma base suficientemente poderosa para… fazer o progresso rápido da IA em direção a agentes verdadeiramente sobre-humanos.” A chave, argumentam, é construir agentes de IA que dependam menos do diálogo humano e de pré-julgamentos, como os LLMs, para informar seu comportamento.

“Agentes poderosos devem ter seu próprio fluxo de experiências que progride, como os humanos, ao longo de um grande período de tempo”, escreveram. “Por fim, os dados experienciados irão eclipsar a escala e a qualidade dos dados gerados por humanos. Essa mudança de paradigma, acompanhada de avanços algorítmicos em RL, desbloqueará em muitos domínios novas capacidades que superam aquelas possuídas por qualquer ser humano.”

Se os computadores conseguem fazer tudo isso com apenas um cérebro semelhante ao do pombo, alguns pesquisadores de animais agora se perguntam se os pombos realmente merecem mais crédito do que costumam receber.

“Quando considerados à luz das conquistas da IA, a extensão do aprendizado associativo para formas supostamente mais complicadas de desempenho cognitivo oferece novas perspectivas para entender como os sistemas biológicos podem ter evoluído”, escreveu Ed Wasserman, psicólogo da Universidade de Iowa, em um estudo recente na revista Current Biology.

Em um experimento, Wasserman treinou pombos para terem sucesso em uma tarefa complexa de categorização, que vários estudantes de graduação falharam. Os estudantes tentaram, em vão, encontrar uma regra que os ajudasse a classificar diversos discos com linhas paralelas negras de diferentes larguras e inclinações; os pombos simplesmente desenvolveram, por meio da prática e associação, um senso de qual grupo cada disco pertencia.

Assim como Sutton, Wasserman se interessou pela psicologia behaviorista quando as teorias de Skinner estavam fora de moda. No entanto, ele não migrou para a ciência da computação: ele permaneceu com os pombos. “O pombo vive ou morre por essas regras de aprendizado realmente rudimentares”, disse Wasserman recentemente, “mas elas são poderosas o suficiente para terem tido um sucesso colossal no reconhecimento de objetos.” Em seus experimentos mais famosos, Wasserman treinou pombos para detectar tecido cancerígeno e sintomas de doenças cardíacas em exames médicos com a mesma precisão de médicos experientes com diplomas emoldurados atrás de suas mesas. Dado seus resultados, Wasserman achou estranho que tantos psicólogos e etólogos considerassem o aprendizado associativo como um mecanismo bruto e mecânico, incapaz de produzir a inteligência de animais inteligentes como símios, elefantes, golfinhos, papagaios e corvos.

Outros pesquisadores também começaram a reconsiderar o papel do aprendizado associativo no comportamento animal depois que a IA começou a superar profissionais humanos em jogos complexos. “Com o progresso da inteligência artificial, que essencialmente é construída sobre processos associativos, é cada vez mais irônico que o aprendizado associativo seja considerado simples demais e insuficiente para gerar inteligência biológica”, escreveu Lind, biólogo da Universidade de Estocolmo, em 2023. Ele frequentemente cita a ciência da computação de Sutton e Barto em sua pesquisa biológica e acredita que é a linguagem simbólica e as culturas cumulativas dos seres humanos que realmente os colocam em uma categoria cognitiva própria.

Os etólogos geralmente propõem mecanismos cognitivos, como a teoria da mente (ou seja, a capacidade de atribuir estados mentais aos outros), para explicar comportamentos notáveis de animais, como aprendizado social e uso de ferramentas. Mas Lind construiu modelos mostrando que esses comportamentos flexíveis poderiam ter se desenvolvido por meio do aprendizado associativo, sugerindo que talvez não seja necessário invocar mecanismos cognitivos de forma alguma. Se os animais aprendem a associar um comportamento a uma recompensa, então o próprio comportamento passará a se aproximar do valor da recompensa. Um novo comportamento pode então ser associado ao primeiro comportamento, permitindo que o animal aprenda cadeias de ações que, eventualmente, levam à recompensa. Na visão de Lind, estudos que demonstram autocontrole e planejamento em chimpanzés e corvos provavelmente estão descrevendo comportamentos adquiridos por experiência, e não mecanismos inatos da mente.

Lind tem se frustrado com o que ele chama de “baixo padrão aceito nos estudos sobre cognição animal”. Como escreveu em um e-mail: “Muitos pesquisadores dessa área não parecem se preocupar em excluir hipóteses alternativas e parecem satisfeitos em negligenciar muitos conhecimentos atuais e históricos.” No entanto, há alguns sinais de que seus argumentos estão ganhando espaço. Um grupo de psicólogos não afiliados a Lind mencionou seu “paradoxo do aprendizado associativo” no ano passado em uma crítica a um estudo da Current Biology, que alegava mostrar que os corvos usavam “verdadeira inferência estatística” e não “estratégias de aprendizado associativo de baixo nível” em um experimento. Os psicólogos descobriram que poderiam explicar o desempenho dos corvos com um simples modelo de aprendizado por reforço — “exatamente o tipo de processo de aprendizado associativo de baixo nível que [os autores originais] descartaram.”

Skinner poderia ter se sentido justificado por tais argumentos. Ele lamentou a virada cognitiva da psicologia até sua morte, em 1990, mantendo que era cientificamente irresponsável sondar as mentes dos seres vivos. Após o “Projeto Pombo”, ele ficou cada vez mais obcecado por soluções “behavioristas” para problemas sociais. Ele passou de treinar pombos para a guerra a invenções como o “Air Crib”, que visava “simplificar” os cuidados com bebês, mantendo o bebê atrás de vidro em uma câmara com controle climático e eliminando a necessidade de roupas e cobertores. Skinner rejeitava o livre-arbítrio, argumentando que o comportamento humano é determinado por variáveis ambientais, e escreveu um romance, Walden II, sobre uma comunidade utópica fundada em suas ideias.

Pessoas que se preocupam com os animais podem se sentir desconfortáveis com o renascimento da teoria behaviorista. A “revolução cognitiva” rompeu com séculos de pensamento ocidental, que enfatizava a supremacia humana sobre os animais e tratava outras criaturas como máquinas de estímulo-resposta. Mas argumentar que os animais aprendem por associação não é o mesmo que afirmar que eles são simplórios. Cientistas como Lind e Wasserman não negam que forças internas, como instinto e emoção, também influenciam o comportamento animal. Sutton também acredita que os animais desenvolvem modelos do mundo por meio de suas experiências e os utilizam para planejar ações. O ponto deles não é que os animais inteligentes são desprovidos de inteligência, mas que o aprendizado associativo é um mecanismo muito mais poderoso — de fato, “cognitivo” — do que muitos de seus pares acreditam. Os psicólogos que recentemente criticaram o estudo sobre corvos e inferência estatística não concluíram que as aves eram estúpidas. Pelo contrário, argumentaram que “um modelo de aprendizado por reforço pode produzir comportamentos complexos e flexíveis.”

Isso está amplamente alinhado com o trabalho de outro psicólogo, Robert Rescorla, cujo trabalho nas décadas de 1970 e 1980 influenciou tanto Wasserman quanto Sutton. Rescorla incentivou as pessoas a pensarem na associação não como um “processo mecânico de baixo nível”, mas como “o aprendizado que resulta da exposição às relações entre eventos no ambiente” e “um meio primário pelo qual o organismo representa a estrutura de seu mundo.”

Isso é verdade até mesmo para um pombo de laboratório bicando telas e botões em uma pequena caixa experimental, onde os cientistas controlam e medem cuidadosamente os estímulos e as recompensas. Mas o aprendizado do pombo se estende para fora da caixa. Os alunos de Wasserman transportam as aves entre o aviário e o laboratório em baldes — e os pombos experientes saltam imediatamente para os baldes sempre que os alunos abrem as portas. Assim como Rescorla sugeriu, eles estão aprendendo a estrutura de seu mundo dentro do laboratório e a relação entre suas partes, como o balde e a caixa, embora nem sempre saibam a tarefa específica que enfrentarão dentro.

Os mesmos mecanismos associativos pelos quais o pombo aprende a estrutura de seu mundo podem abrir uma janela para o tipo de vida interior que Skinner e muitos psicólogos anteriores disseram que não existia. Pesquisadores farmacêuticos há muito utilizam pombos em tarefas de discriminação de drogas, onde são dados a eles, por exemplo, uma anfetamina ou um sedativo, e recompensados com uma bolinha de comida por identificar corretamente qual droga tomaram. O sucesso das aves sugere que elas tanto experimentam quanto discriminam entre estados internos. “Isso não é equivalente à introspecção?”, perguntou Wasserman.

É difícil imaginar a IA superando um pombo nessa tarefa específica — um lembrete de que, embora a IA e os animais compartilhem mecanismos associativos, há mais na vida do que comportamento e aprendizado. Um pombo merece consideração ética como um ser vivo não por causa de como aprende, mas por causa do que sente. Um pombo pode experimentar dor e sofrer, enquanto um chatbot de IA não pode — mesmo que alguns grandes modelos de linguagem, treinados com corpora que incluem descrições de sofrimento humano e histórias de ficção científica sobre computadores sencientes, consigam enganar as pessoas a acreditar o contrário.

“Os investimentos intensivos públicos e privados em pesquisas sobre IA nos últimos anos resultaram nas tecnologias que estão nos forçando a enfrentar a questão da sentiência da IA hoje”, escreveram dois filósofos da ciência na Aeon em 2023. “Para responder a essas questões atuais, precisamos de um grau semelhante de investimento em pesquisa sobre cognição e comportamento animal.” De fato, psicólogos comparativos e pesquisadores de animais há muito lidam com questões que de repente parecem urgentes por causa da IA: Como atribuímos sentiência a outros seres vivos? Como podemos distinguir a verdadeira sentiência de uma performance muito convincente de sentiência?

Tal empreitada resultaria em conhecimentos não apenas sobre tecnologia e animais, mas também sobre nós mesmos. A maioria dos psicólogos provavelmente não chegaria tão longe quanto Sutton ao argumentar que a recompensa é suficiente para explicar a maior parte, senão todo, comportamento humano, mas ninguém contestaria que as pessoas frequentemente aprendem por associação também. Na verdade, a maioria dos alunos de graduação de Wasserman eventualmente teve sucesso em seu experimento recente com os discos listrados, mas só depois de desistirem de procurar regras. Eles recorreram, como os pombos, à associação e não conseguiram explicar facilmente depois o que haviam aprendido. Foi apenas que, com prática suficiente, começaram a entender as categorias.

É mais uma ironia sobre o aprendizado associativo: o que foi considerado por muito tempo a forma mais complexa de inteligência — uma habilidade cognitiva como o aprendizado baseado em regras — pode nos tornar humanos, mas também a utilizamos para as tarefas mais simples, como classificar objetos por cor ou tamanho. Enquanto isso, algumas das demonstrações mais refinadas de aprendizado humano — como, por exemplo, um sommelier aprendendo a distinguir o sabor das uvas — não são aprendidas por meio de regras, mas apenas por experiência.

O aprendizado por experiência depende de mecanismos associativos antigos que compartilhamos com pombos e inúmeras outras criaturas, de abelhas a peixes. O pombo de laboratório não está apenas em nossos computadores, mas em nossos cérebros — e é o motor por trás de algumas das conquistas mais impressionantes da humanidade.

Último vídeo

Nossos tópicos