Superinteligência desonesta e fusão com máquinas: por dentro da mente do cientista-chefe da OpenAI
Inteligência artificial

Superinteligência desonesta e fusão com máquinas: por dentro da mente do cientista-chefe da OpenAI

Uma conversa exclusiva com Ilya Sutskever sobre seus temores em relação ao futuro da IA e por que isso fez com que ele mudasse o foco do trabalho de sua vida.

Banner indicando a posição do botão de download do artigo em formato pdf

Ilya Sutskever, com a cabeça baixa, está pensando profundamente. Seus braços estão bem abertos e seus dedos estão espalhados sobre o tampo da mesa como um pianista prestes a tocar suas primeiras notas. Ficamos sentados em silêncio.

Vim me encontrar com Sutskever, cofundador e cientista-chefe da OpenAI, no prédio de escritórios sem identificação de sua empresa, em uma rua comum no Mission District, em São Francisco, para saber o que está por vir com a tecnologia que revoluciona o mundo, na qual ele teve grande participação. Também quero saber o que vem a seguir para ele — em especial, porque a criação da próxima geração dos principais modelos generativos de sua empresa não é mais o foco de seu trabalho.

Em vez de criar o próximo GPT ou o criador de imagens DALL-E, Sutskever me disse que sua nova prioridade é descobrir como impedir que uma superinteligência artificial (uma tecnologia hipotética do futuro que ele vê chegando com a previsão de um verdadeiro crente) se torne desonesta.

Sutskever também me conta muitas outras coisas. Ele acha que o ChatGPT pode estar consciente (se você apertar os olhos). Ele acha que o mundo precisa despertar para o verdadeiro poder da tecnologia que sua empresa e outras estão correndo para criar. E ele acha que alguns humanos um dia escolherão se fundir com as máquinas.

Muitas das coisas que Sutskever diz são loucas. Mas nem de longe é tão louco quanto pareceria há apenas um ou dois anos. Como ele mesmo me diz, o ChatGPT já reescreveu as expectativas de muitas pessoas sobre o que está por vir, transformando o “nunca vai acontecer” em “vai acontecer mais rápido do que você imagina”.

“É importante falar sobre o rumo que tudo está tomando”, diz ele, antes de prever o desenvolvimento da Inteligência Artificial geral (ou seja, máquinas tão inteligentes quanto os humanos) como se fosse uma aposta tão certa quanto outro iPhone: “Em algum momento, realmente teremos IAG. Talvez a OpenAI a desenvolva. Talvez alguma outra empresa a construa.”

Desde o lançamento de seu sucesso repentino e surpreendente, o ChatGPT, em novembro do ano passado, o burburinho em torno da OpenAI tem sido surpreendente, mesmo em um setor conhecido pelo hype. Ninguém se cansa de falar dessa startup nerd de US$ 80 bilhões. Líderes mundiais buscam (e conseguem) audiências privadas. Os nomes de seus produtos são usados em conversas informais.

O CEO da OpenAI, Sam Altman, passou boa parte do verão em uma turnê de divulgação que durou semanas, cumprimentando políticos e discursando para auditórios lotados em todo o mundo. Mas Sutskever é uma figura muito menos pública e não dá muitas entrevistas.

Ele é deliberado e metódico quando fala. Há longas pausas em que ele pensa no que quer dizer e em como dizer, analisando as perguntas como se fossem quebra-cabeças que ele precisa resolver. Ele não parece interessado em falar sobre si mesmo. “Levo uma vida muito simples”, diz ele. “Vou para o trabalho e depois vou para casa. Não faço muito mais. Há muitas atividades sociais nas quais alguém poderia se envolver, muitos eventos aos quais poderia ir. Mas eu não vou.”

Mas quando falamos de IA e dos riscos e recompensas excepcionais que ele vê no futuro, as perspectivas se abrem: “Vai ser monumental, de abalar a terra. Haverá um antes e um depois”.

Cada vez melhor e melhor e melhor

Em um mundo sem a OpenAI, Sutskever ainda teria um registro na história da IA. Israelense-canadense, ele nasceu na Rússia Soviética, mas foi criado em Jerusalém desde os cinco anos de idade (ele ainda fala russo e hebraico, além de inglês). Em seguida, mudou-se para o Canadá para estudar na Universidade de Toronto com Geoffrey Hinton, o pioneiro da IA que revelou publicamente seus temores em relação à tecnologia que ajudou a inventar no início do ano passado. (Sutskever não quis comentar os pronunciamentos de Hinton, mas seu novo foco na superinteligência desonesta sugere que eles estão na mesma página).

Mais tarde, Hinton compartilharia o Prêmio Turing com Yann LeCun e Yoshua Bengio por seu trabalho em redes neurais. Mas quando Sutskever se juntou a ele no início dos anos 2000, a maioria dos pesquisadores de IA acreditava que as redes neurais eram um beco sem saída. Hinton era uma exceção. Ele já estava treinando modelos minúsculos que podiam produzir sequências curtas de texto, um caractere de cada vez, diz Sutskever: “Era o início da IA generativa ali mesmo. Era muito legal — só que não era muito bom.”

Sutskever era fascinado por cérebros: como eles aprendiam e como esse processo poderia ser recriado, ou pelo menos imitado, em máquinas. Assim como Hinton, ele viu o potencial das redes neurais e a técnica de tentativa e erro que Hinton usou para treiná-las, chamada de aprendizagem profunda. “Ela foi ficando cada vez melhor e melhor e melhor”, diz Sutskever.

Em 2012, Sutskever, Hinton e outro aluno de pós-graduação de Hinton, Alex Krizhevsky, criaram uma rede neural chamada AlexNet, que eles treinaram para identificar objetos em fotos muito melhor do que qualquer outro software existente na época. Foi o momento do Big Bang da aprendizagem profunda.

Depois de muitos anos de falsos começos, eles mostraram que as redes neurais eram incrivelmente eficazes no reconhecimento de padrões. Você só precisava de mais dados do que a maioria dos pesquisadores já havia visto antes (nesse caso, um milhão de imagens do conjunto de dados ImageNet que o pesquisador da Universidade de Princeton, Fei-Fei Li, vinha criando desde 2006) e uma quantidade impressionante de potência de computador.

A mudança radical na computação veio de um novo tipo de chip chamado unidade de processamento gráfico (GPU), fabricado pela Nvidia. As GPUs foram projetadas para serem extremamente rápidas no lançamento de imagens de jogos de vídeo em movimento rápido nas telas. Mas os cálculos em que as GPUs são boas – multiplicação de grades maciças de números — eram muito parecidos com os cálculos necessários para treinar redes neurais.

A Nvidia é hoje uma empresa de um trilhão de dólares. Na época, ela estava desesperada para encontrar aplicativos para seu novo hardware de nicho. “Quando você inventa uma nova tecnologia, precisa ser receptivo a ideias malucas”, diz o CEO da Nvidia, Jensen Huang. “Meu estado de espírito era sempre procurar algo peculiar, e a ideia de que as redes neurais transformariam a ciência da computação era uma ideia absurdamente peculiar.”

Huang diz que a Nvidia enviou à equipe de Toronto algumas GPUs para experimentar quando estavam trabalhando no AlexNet. Mas eles queriam a versão mais recente, um chip chamado GTX 580 que estava se esgotando rapidamente nas lojas. De acordo com Huang, Sutskever atravessou a fronteira de Toronto para Nova York para comprar algumas. “As pessoas faziam fila na esquina”, diz Huang. “Não sei como ele fez isso – tenho certeza de que só era permitido comprar uma por pessoa; tínhamos uma política muito rígida de uma GPU por jogador – mas aparentemente ele encheu um porta-malas com elas. Esse porta-malas cheio de GTX 580s mudou o mundo.”

É uma ótima história, mas pode não ser verdadeira. Sutskever insiste que comprou as primeiras GPUs on-line. Mas esse tipo de criação de mitos é comum nesse negócio agitado. O próprio Sutskever é mais humilde: Pensei: “Se eu conseguisse fazer um pouquinho de progresso real, consideraria isso um sucesso”, diz ele. “O impacto no mundo real parecia tão distante porque os computadores eram tão insignificantes naquela época.”

Após o sucesso da AlexNet, o Google bateu à porta. Ela adquiriu a empresa derivada de Hinton, a DNNresearch, e contratou Sutskever. No Google, Sutskever mostrou que os poderes de reconhecimento de padrões da aprendizagem profunda podiam ser aplicados a sequências de dados, como palavras e frases, e também a imagens. “Ilya sempre se interessou por linguagem”, diz o ex-colega de Sutskever, Jeff Dean, que agora é o cientista-chefe do Google: “Tivemos ótimas discussões ao longo dos anos. Ilya tem um forte senso intuitivo sobre o rumo que as coisas podem tomar.”

Mas Sutskever não permaneceu no Google por muito tempo. Em 2014, ele foi recrutado para se tornar cofundador da OpenAI. Com o apoio de US$ 1 bilhão (de Altman, Elon Musk, Peter Thiel, Microsoft, Y Combinator e outros) e uma grande dose de arrogância do Vale do Silício, a nova empresa teve como objetivo, desde o início, desenvolver a IAG, uma perspectiva que poucos levaram a sério na época.

Com Sutskever a bordo, o cérebro por trás do dinheiro, a arrogância era compreensível. Até então, ele estava em alta, obtendo cada vez mais resultados com as redes neurais. Sua reputação o precedeu, o que o tornou uma grande atração, diz Dalton Caldwell, diretor administrativo de investimentos da Y Combinator.

“Lembro-me de Sam [Altman] se referindo a Ilya como um dos pesquisadores mais respeitados do mundo”, diz Caldwell. “Ele achava que Ilya seria capaz de atrair muitos dos melhores talentos em IA. Ele até mencionou que Yoshua Bengio, um dos maiores especialistas em IA do mundo, acreditava que seria improvável encontrar um candidato melhor do que Ilya para ser o cientista líder da OpenAI.”

E ainda assim, no início, a OpenAI teve dificuldades. “Houve um período, quando estávamos começando a OpenAI, em que eu não tinha certeza de como o progresso continuaria”, diz Sutskever. “Mas eu tinha uma crença muito explícita, que era: não se pode apostar contra a aprendizagem profunda. De alguma forma, sempre que você se depara com um obstáculo, em seis meses ou um ano os pesquisadores encontram uma maneira de contorná-lo.”

Sua fé valeu a pena. O primeiro dos grandes modelos de linguagem GPT da OpenAI (o nome significa “generative pretrained transformer”) foi lançado em 2016. Depois vieram o GPT-2 e o GPT-3. Em seguida, o DALL-E, o impressionante modelo de texto para imagem. Ninguém estava criando algo tão bom. A cada lançamento, a OpenAI elevava o nível do que era considerado possível.

Gerenciando expectativas

Em novembro de 2022, a OpenAI lançou um chatbot de uso gratuito que reempacotou algumas de suas tecnologias existentes. Ele redefiniu a agenda de todo o setor.

Na época, a OpenAI não tinha ideia do que estava lançando. As expectativas dentro da empresa não poderiam ter sido menores, diz Sutskever: “Admito, para meu leve constrangimento – não sei se deveria, mas que diabos, é verdade – quando criamos o ChatGPT, eu não sabia se ele era bom. Quando você fazia uma pergunta factual, ele dava uma resposta errada. Achei que seria tão inexpressivo que as pessoas diriam: ‘Por que vocês estão fazendo isso? Isso é muito chato!’.”

O atrativo foi a conveniência, diz Sutskever. O grande modelo de linguagem sob o capô do ChatGPT já existia há meses. Mas o fato de envolver isso em uma interface acessível e oferecê-lo gratuitamente fez com que bilhões de pessoas conhecessem pela primeira vez o que a OpenAI e outras empresas estavam criando.

“Essa experiência inicial foi o que atraiu as pessoas”, diz Sutskever. “A primeira vez que você o usa, acho que é quase uma experiência espiritual. Você pensa: ‘Oh, meu Deus, este computador parece entender’.”

A OpenAI acumulou 100 milhões de usuários em menos de dois meses, muitos deles deslumbrados com esse novo brinquedo impressionante. Aaron Levie, CEO da empresa de armazenamento Box, resumiu a vibração na semana seguinte ao lançamento, quando tuitou: “O ChatGPT é um daqueles raros momentos na tecnologia em que você vê um vislumbre de como tudo será diferente daqui para frente.”

Esse vislumbre cai por terra assim que o ChatGPT diz algo estúpido. Mas, nesse momento, isso não importa. Esse vislumbre do que era possível é suficiente, diz Sutskever. O ChatGPT mudou os horizontes das pessoas.

“IAG deixou de ser um palavrão no campo da aprendizagem de máquina”, diz ele. “Essa foi uma grande mudança. A atitude que as pessoas têm adotado historicamente tem sido: A IA não funciona, cada passo é muito difícil, é preciso lutar por cada grama de progresso. E quando as pessoas faziam grandes proclamações sobre a IAG, os pesquisadores diziam: ‘Do que você está falando? Isso não funciona, aquilo não funciona. Há tantos problemas”. Mas com o ChatGPT, a sensação começou a ser diferente.”

E essa mudança só começou a acontecer há um ano? “Isso aconteceu por causa do ChatGPT”, diz ele. “O ChatGPT permitiu que os pesquisadores de aprendizado de máquina sonhassem.”

Evangelistas desde o início, os cientistas da OpenAI têm alimentado esses sonhos com publicações em blogs e turnês de palestras. E isso está funcionando: “Agora temos pessoas falando sobre até onde a IA chegará — pessoas que falam sobre AGI, ou superinteligência.” E não se trata apenas de pesquisadores. “Os governos estão falando sobre isso”, diz Sutskever. “É uma loucura.”

Mini Banner - Assine a MIT Technology Review

Coisas incríveis

Sutskever insiste que toda essa conversa sobre uma tecnologia que ainda não existe (e talvez nunca exista) é uma coisa boa, porque conscientiza mais pessoas sobre um futuro que ele já considera garantido.

“É possível fazer muitas coisas incríveis com a IAG, coisas incríveis: automatizar a assistência médica, torná-la mil vezes mais barata e mil vezes melhor, curar muitas doenças, resolver de fato o aquecimento global”, diz ele. “Mas há muitas pessoas preocupadas: ‘Meu Deus, será que as empresas de IA conseguirão gerenciar essa tremenda tecnologia?

Apresentada dessa forma, a IAG soa mais como um gênio que concede desejos do que como uma perspectiva do mundo real. Poucos diriam não para salvar vidas e solucionar as mudanças climáticas. Mas o problema de uma tecnologia que não existe é que você pode dizer o que quiser sobre ela.

Do que Sutskever realmente está falando quando se refere à IAG? “A IAG não foi criada para ser um termo científico”, diz ele. “Ele foi criado para ser um limite útil, um ponto de referência.”

“É a ideia”, ele começa e depois para. “É o ponto em que a IA é tão inteligente que, se uma pessoa pode fazer alguma tarefa, a IA também pode fazê-la. Nesse ponto, você pode dizer que tem IAG.”

As pessoas podem estar falando sobre isso, mas a IAG continua sendo uma das ideias mais controversas do campo. Poucos consideram seu desenvolvimento como um dado adquirido. Muitos pesquisadores acreditam que são necessários grandes avanços conceituais antes de vermos algo parecido com o que Sutskever tem em mente – e alguns acreditam que nunca veremos.

E, no entanto, essa é uma visão que o impulsionou desde o início. “Sempre me senti inspirado e motivado pela ideia”, diz Sutskever. “Naquela época, não se chamava IAG, mas você sabe, por exemplo, ter uma rede neural para fazer tudo. Eu nem sempre acreditei que isso fosse possível. Mas era a montanha a ser escalada.”

Ele traça um paralelo entre a maneira como as redes neurais e os cérebros operam. Ambos recebem dados, agregam sinais a partir desses dados e, em seguida, com base em algum processo simples (matemática nas redes neurais, substâncias químicas e bioeletricidade no cérebro), os propagam ou não. É uma simplificação enorme, mas o princípio é válido.

“Se você acredita nisso — se você se permite acreditar nisso — então há muitas implicações interessantes”, diz Sutskever. “A principal implicação é que, se você tiver uma rede neural artificial muito grande, ela deverá fazer muitas coisas. Em particular, se o cérebro humano pode fazer algo, então uma grande rede neural artificial também poderia fazer algo semelhante.”

“Tudo segue um fluxo se você levar essa percepção suficientemente a sério”, diz ele. “E uma grande parte do meu trabalho pode ser explicada por isso.”

Já que estamos falando de cérebros, gostaria de perguntar sobre uma das publicações de Sutskever no X, o site anteriormente conhecido como Twitter. O feed de Sutskever parece um rolo de aforismos: “Se você valoriza a inteligência acima de todas as outras qualidades humanas, você vai se dar mal”; “A empatia na vida e nos negócios é subestimada”; “O perfeito destruiu muita coisa boa e perfeita”.

Em fevereiro de 2022, ele postou: “pode ser que as grandes redes neurais atuais sejam ligeiramente conscientes” (ao que Murray Shanahan, principal cientista do Google DeepMind e professor do Imperial College London, bem como consultor científico do filme Ex Machina, respondeu: “… no mesmo sentido em que pode ser que um grande campo de trigo seja ligeiramente macarrão”).

Sutskever ri quando eu falo sobre isso. Ele estava fazendo trollagem? Não estava. “Você conhece o conceito de um cérebro de Boltzmann?”, pergunta ele.

Ele está se referindo a um experimento de pensamento (irônico) em mecânica quântica que leva o nome do físico do século XIX Ludwig Boltzmann, no qual se imagina que flutuações termodinâmicas aleatórias no universo fazem com que cérebros surjam e desapareçam.

“Sinto que, no momento, esses modelos de linguagem são como um cérebro de Boltzmann”, diz Sutskever. “Você começa a falar com ele, fala um pouco; depois termina de falar, e o cérebro meio que…” Ele faz um movimento de desaparecimento com as mãos. Poof-bye-bye, cérebro.

Você está dizendo que enquanto a rede neural está ativa — enquanto ela está disparando, por assim dizer — há algo lá? Eu pergunto.

“Acho que pode ser”, diz ele. “Não tenho certeza, mas é uma possibilidade contra a qual é muito difícil argumentar. Mas quem sabe o que está acontecendo, certo?”

IA, mas não como a conhecemos

Enquanto outros se debatem com a ideia de máquinas que podem se equiparar à inteligência humana, Sutskever está se preparando para máquinas que podem nos superar. Ele chama isso de superinteligência artificial: “Elas verão as coisas mais profundamente. Elas verão coisas que nós não vemos”.

Mais uma vez, tenho dificuldade em entender o que isso realmente significa. A inteligência humana é a nossa referência para o que é inteligência. O que Sutskever quer dizer com inteligência mais inteligente do que a humana?

“Vimos um exemplo de uma superinteligência muito limitada no AlphaGo”, diz ele. Em 2016, a IA da DeepMind que joga jogos de tabuleiro venceu Lee Sedol, um dos melhores jogadores de Go do mundo, por 4 a 1 em uma partida de cinco jogos. “Ela descobriu como jogar Go de maneiras diferentes das que a humanidade desenvolveu coletivamente ao longo de milhares de anos”, diz Sutskever. “Ele apresentou novas ideias.”

Sutskever aponta para o infame movimento 37 do AlphaGo. Em seu segundo jogo contra Sedol, a IA fez um movimento que deixou os comentaristas perplexos. Eles acharam que o AlphaGo tinha feito besteira. Na verdade, ele havia feito uma jogada vencedora que ninguém havia visto antes na história do jogo. “Imagine esse nível de percepção, mas em todos os aspectos”, diz Sutskever.

Foi essa linha de pensamento que levou Sutskever a fazer a maior mudança de sua carreira. Juntamente com Jan Leike, um colega cientista da OpenAI, ele montou uma equipe que se concentrará no que eles chamam de superalinhamento.

Alinhamento é um jargão que significa fazer com que os modelos de IA façam o que você deseja e nada mais. Superalinhamento é o termo da OpenAI para alinhamento aplicado à superinteligência.

O objetivo é criar um conjunto de procedimentos à prova de falhas para desenvolver e controlar essa tecnologia futura. A OpenAI afirma que alocará um quinto de seus vastos recursos de computação para o problema e o resolverá em quatro anos.

“Os métodos de alinhamento existentes não funcionarão para modelos mais inteligentes do que os humanos porque eles pressupõem fundamentalmente que os humanos podem avaliar de forma confiável o que os sistemas de IA estão fazendo”, diz Leike. “À medida que os sistemas de IA se tornarem mais capazes, eles assumirão tarefas mais difíceis.” E isso — diz a ideia — tornará mais difícil para os humanos avaliá-los. “Ao formar a equipe de superalinhamento com Ilya, nos propusemos a resolver esses desafios futuros de alinhamento”, diz ele.

“É muito importante não se concentrar apenas nas possíveis oportunidades dos modelos de linguagem grandes, mas também nos riscos e nas desvantagens”, diz Dean, cientista-chefe do Google.

A empresa anunciou o projeto em julho com a típica fanfarra. Mas, para alguns, foi mais uma fantasia. A postagem da OpenAI no X atraiu o desprezo de críticos proeminentes da Big Tech, incluindo Abeba Birhane, que trabalha com responsabilidade de IA na Mozilla (“tantas palavras grandiosas, mas vazias, em uma postagem de blog”); Timnit Gebru, cofundador do Distributed Artificial Intelligence Research Institute (“Imagine o ChatGPT ainda mais ‘super alinhado’ com os técnicos da OpenAI. *shudder*”); e Margaret Mitchell, cientista-chefe de ética da empresa de IA Hugging Face (“Meu alinhamento é maior que o seu”). É verdade que essas são vozes conhecidas de discordância. Mas é um forte lembrete de que, enquanto alguns veem a OpenAI liderando pela frente, outros a veem se inclinando pelas bordas.

Mas, para Sutskever, o superalinhamento é a próxima etapa inevitável. “É um problema sem solução”, diz ele. Também é um problema no qual ele acha que não há pesquisadores de machine learning suficientes, como ele próprio, trabalhando. “Estou fazendo isso por interesse próprio”, diz ele. “Obviamente, é importante que qualquer superinteligência que alguém construa não se torne desonesta. Obviamente.”

O trabalho de superalinhamento está apenas começando. Ele exigirá amplas mudanças nas instituições de pesquisa, diz Sutskever. Mas ele tem um exemplo em mente para as salvaguardas que deseja projetar: uma máquina que olha para as pessoas da mesma forma que os pais olham para seus filhos. “Em minha opinião, esse é o padrão ouro”, diz ele. “É uma declaração geralmente verdadeira de que as pessoas realmente se preocupam com as crianças.” (Ele tem filhos? “Não, mas quero ter”, diz ele).

Meu tempo com Sutskever está quase acabando, e acho que já terminamos. Mas ele está em ritmo acelerado e tem mais um pensamento para compartilhar – um que eu não esperava.

“Depois que você superar o desafio da IA desonesta, o que acontecerá? Haverá espaço para seres humanos em um mundo com IAs mais inteligentes?”, diz ele.

“Uma possibilidade — algo que pode ser uma loucura para os padrões atuais, mas que não será tão louco para os padrões futuros — é que muitas pessoas optarão por se tornar parte da IA.” Sutskever diz que essa pode ser a forma como os humanos tentarão se manter atualizados. “No início, apenas as pessoas mais ousadas e aventureiras tentarão fazer isso. Talvez outros o sigam. Ou não.”

Espera, o quê? Ele está se levantando para ir embora. Ele faria isso? pergunto. Ele seria um dos primeiros? “O primeiro? Não sei”, diz ele. “Mas é algo em que penso. A resposta verdadeira é: talvez.”

E, com essa deixa que faz o cérebro explodir, ele se levanta e sai da sala. “É muito bom ver você de novo”, diz ele ao sair.

Último vídeo

Nossos tópicos