A empolgação em torno do novo modelo de Inteligência Artificial da DeepMind ofusca o que é realmente interessante neles
Inteligência artificial

A empolgação em torno do novo modelo de Inteligência Artificial da DeepMind ofusca o que é realmente interessante neles

Alguns temem que a conversa sobre essas ferramentas esteja fazendo um desserviço a todo o campo.

No início de maio, a DeepMind apresentou um novo modelo de IA “generalista” chamado Gato. O modelo pode jogar jogos do Atari, legendar imagens, conversar e empilhar blocos com um braço robótico real, anunciou o laboratório de IA da Alphabet. Ao todo, Gato pode fazer 604 tarefas diferentes.

Mas embora o modelo Gato seja inegavelmente fascinante, na semana seguinte ao seu lançamento, alguns pesquisadores ficaram um pouco empolgados demais.

Um dos principais pesquisadores da DeepMind e coautor do artigo de Gato, Nando de Freitas, não conseguiu conter sua empolgação. “O jogo acabou!” Ele escreveu em seu Twitter, sugerindo que agora existe um caminho claro de Gato para Inteligência Geral Artificial, ou AGI, pela sigla em inglês, um conceito vago de Inteligência Artificial (IA) de nível humano ou sobre-humano. A maneira de construir AGI, ele afirmou, é principalmente uma questão de escala: fazer modelos como o Gato maiores e melhores. Como era de se esperar, o anúncio de Freitas desencadeou uma cobertura exagerada da imprensa onde alegava-se que a DeepMind estava “à beira” de alcançar a inteligência artificial de nível humano. Esta não é a primeira vez que o entusiasmo supera a realidade. Outros novos e empolgantes modelos de IA, como o gerador de texto GPT-3 da OpenAI e o gerador de imagens DALL-E, geraram reivindicações igualmente grandiosas. Para muitos no campo, esse tipo de discurso febril ofusca outras áreas importantes de pesquisa em IA.

Isso é uma pena, porque Gato é mesmo um passo interessante. Alguns modelos começaram a misturar habilidades diferentes: o DALL-E, por exemplo, gera imagens a partir de descrições de texto. Outros usam uma única técnica de treinamento para aprender a reconhecer imagens e frases. E o AlphaZero da DeepMind aprendeu a jogar Go, xadrez e shogi.

Mas esta é a diferença crucial: AlphaZero só poderia aprender uma tarefa por vez. Depois de aprender a jogar Go, teve que esquecer tudo antes de aprender a jogar xadrez, e assim por diante. Ele não poderia aprender a jogar os dois jogos ao mesmo tempo. É isso que Gato faz: ele aprende várias tarefas diferentes ao mesmo tempo, o que significa que pode alternar entre elas sem ter que esquecer uma habilidade antes de aprender outra. É um pequeno avanço, mas significativo.

A desvantagem é que Gato não executa as tarefas tão bem quanto modelos que só podem fazer uma coisa. Os robôs ainda precisam aprender o “senso comum” sobre como o mundo funciona a partir do texto, diz Jacob Andreas, professor assistente do MIT especializado em Inteligência Artificial, linguagem natural e processamento de fala.

Isso pode ser útil em robôs que podem ajudar as pessoas em casa, por exemplo. “Quando você coloca [um robô] em uma cozinha e pede que eles façam uma xícara de chá pela primeira vez, eles sabem quais etapas estão envolvidas na preparação do chá e onde os sachês de chá provavelmente estarão”, diz Andreas.

No entanto, alguns pesquisadores externos se opuseram explicitamente ao que Freitas publicou. “Isso está longe de ser ‘inteligente’”, diz Gary Marcus, pesquisador de IA que tem criticado o deep learning. A empolgação em torno de Gato demonstra que o campo da IA é prejudicado por uma inútil “cultura triunfalista”, diz ele.

Os modelos de deep learning que geralmente geram mais entusiasmo sobre o potencial de alcançar a inteligência em nível humano cometem erros que “se um humano cometesse esses erros, você ficaria tipo, tem algo de errado com essa pessoa”, diz Marcus.

“A natureza está tentando nos dizer que algo realmente não funciona, mas o campo acredita tanto em seus próprios recortes de matérias nos jornais que simplesmente não consegue ver isso”, acrescenta.

Até os colegas de Freitas da DeepMind, Jackie Kay e Scott Reed, que trabalharam com ele em Gato, foram mais cautelosos quando perguntei diretamente sobre suas alegações. Quando questionados se Gato estava na direção da AGI, eles não quiseram arriscar. “Na verdade, não acho que seja realmente viável fazer previsões com esse tipo de coisa. Eu tento evitar isso. É como prever o mercado de ações”, disse Kay.

Reed disse que a pergunta era difícil: “Acho que a maioria das pessoas que trabalham com machine learning evitarão cuidadosamente responder. Muito difícil de prever, mas, quem sabe, espero que cheguemos lá algum dia”.

De certa forma, o fato de a DeepMind ter chamado Gato de “generalista” pode tê-lo tornado vítima do entusiasmo exagerado do setor de IA em torno da AGI. Os sistemas de IA de hoje são chamados de “limitados”, o que significa que eles só podem executar um conjunto específico e restrito de tarefas, como gerar texto.

Alguns tecnólogos, incluindo alguns da DeepMind, pensam que um dia os humanos desenvolverão sistemas de IA “mais abrangentes” que poderão funcionar tão bem ou até melhor que os humanos. Embora alguns chamem isso de inteligência artificial geral, outros dizem que é como “acreditar em mágica”. Muitos pesquisadores importantes, como o cientista-chefe de IA da Meta, Yann LeCun, questionam até se isso é possível.

Gato é um “generalista” no sentido de que pode fazer muitas coisas diferentes ao mesmo tempo. Mas esse é um mundo à parte de uma IA “geral” que pode se adaptar significativamente a novas tarefas que são diferentes daquelas em que o modelo foi treinado, diz Andreas, do MIT: “Ainda estamos muito longe de conseguir fazer isso”.

Tornar os modelos maiores também não resolverá a questão de que os modelos não têm “lifelong learning”, o que significaria que, se ensinado algo uma vez, eles entenderiam todas as implicações e usariam para informar todas as outras decisões que tomam, diz ele.

A empolgação em torno de ferramentas como Gato é prejudicial para o desenvolvimento geral da IA, argumenta Emmanuel Kahembwe, pesquisador de IA e robótica e parte da organização Black in AI, cofundada por Timnit Gebru. “Há muitos tópicos interessantes que são deixados de lado, que são subfinanciados, que merecem mais atenção, mas não é nisso que as grandes empresas de tecnologia e a maior parte dos pesquisadores dessas empresas de tecnologia estão interessadas”, diz ele.

As empresas de tecnologia devem dar um passo atrás e fazer um balanço do motivo pelo qual estão construindo o que estão construindo, diz Vilas Dhar, presidente da Patrick J. McGovern Foundation, uma instituição de caridade que financia projetos de IA “para o bem”.

“AGI fala com algo profundamente humano: a ideia de que podemos nos tornar mais do que somos, construindo ferramentas que nos impulsionam à grandeza”, diz ele. “E isso é muito bom, exceto que também é uma maneira de nos distrair do fato de que temos problemas reais que enfrentamos hoje que deveríamos tentar resolver usando IA”.

Último vídeo

Nossos tópicos