Para o cofundador da DeepMind, a IA generativa é apenas uma fase; o próximo passo é a IA interativa
Insights to ActInteligência artificial

Para o cofundador da DeepMind, a IA generativa é apenas uma fase; o próximo passo é a IA interativa

“Este é um grande momento na história da tecnologia,” diz Mustafa Suleyman.

O cofundador da empresa DeepMind, Mustafa Suleyman, quer desenvolver um chatbot que faça muito mais do que apenas conversar. Em uma entrevista recente, ele me disse que a Inteligência Artificial (IA) generativa é apenas uma fase. O que vem a seguir é a IA interativa: bots que conseguem realizar tarefas que você define, recorrendo a outros softwares e outras pessoas. Ele também defende uma forte regulamentação e não acha que isso será difícil de alcançar. 

Suleyman não é o único a falar sobre um futuro repleto de softwares cada vez mais autônomos. Mas, ao contrário da maioria das pessoas, ele tem uma empresa que vale bilhões de dólares, a Inflection, que conta com uma equipe de alto nível recrutada da DeepMind, Meta e OpenAI, e — graças a um acordo com a Nvidia — um dos maiores estoques de hardware especializado em IA no mundo. Suleyman apostou todas as suas fichas nisso — embora ele diga que não tem muito interesse no aspecto financeiro, continua disposto a investir e ganhar mais dinheiro por meio de suas ações na área. 

Suleyman sempre teve uma fé inabalável na tecnologia como uma força para o bem, pelo menos desde que falamos pela primeira vez, no início de 2016. Ele tinha acabado de lançar a DeepMind Health e iniciado parcerias de pesquisas com alguns dos prestadores de saúde regionais do Reino Unido. 

A revista para a qual eu trabalhava naquela época estava prestes a publicar um artigo alegando que a DeepMind não havia cumprido os regulamentos de proteção de dados ao acessar os registos de cerca de 1,6 milhão de pacientes para criar essas colaborações de pesquisa — uma afirmação posteriormente confirmada por uma investigação governamental. Suleyman não conseguia entender por que publicaríamos uma matéria contra as iniciativas de sua empresa para melhorar os serviços de saúde. Na época, ele me disse que só queria fazer o bem no mundo desde que ele se entendia como gente. 

Nos sete anos desde aquele artigo, a missão ambiciosa de Suleyman não mudou nada. “O objetivo nunca foi outro senão fazer o bem para o mundo”, diz ele pelo Zoom de seu escritório em Palo Alto (EUA), onde o empresário britânico passa agora grande parte do tempo. 

Suleyman deixou a DeepMind e entrou para o Google para liderar uma equipe que trabalhava em políticas de IA. Em 2022, ele fundou a Inflection, uma das novas empresas de IA mais importantes do mercado, que recebeu um investimento de US$ 1,5 bilhão da Microsoft, Nvidia, do Bill Gates e do fundador do LinkedIn, Reid Hoffman. No início deste ano, ele lançou um rival do ChatGPT chamado Pi, cujo único diferencial (de acordo com Suleyman) é ser um chatbot agradável e educado. E ele acabou de ser coautor de um livro sobre o futuro da IA com o escritor e pesquisador Michael Bhaskar, chamado A Próxima Onda: Inteligência Artificial, Poder e o Maior Dilema do Século XXI. 

Muitos vão zombar da forma de otimismo tecnológico de Suleyman que pode parecer até mesmo ingenuidade. Por exemplo, algumas das suas afirmações sobre o sucesso da regulamentação online parecem muito fora da realidade. E, ainda assim, ele permanece fervoroso e entusiasmado em suas convicções. 

É verdade que Suleyman tem uma formação incomum para um multimilionário do setor de tecnologia. Quando ele tinha 19 anos, largou a universidade para criar a Muslim Youth Helpline, um serviço de acolhimento e orientação por telefone para jovens muçulmanos. Ele também já trabalhou para o governo. Ele diz que traz para a Inflection muitos dos valores que fundamentaram essas iniciativas. A diferença é que agora ele pode ter a capacidade de realizar as mudanças que sempre quis — para algo melhor ou não. 

A entrevista a seguir foi editada por conta de seu tamanho e para maior clareza. 

Heaven: O início da sua carreira, com o centro de atendimento aos jovens muçulmanos e o trabalho com o governo, não tinha nada de glamoroso e não se parecia em nada com o estilo de vida e empreendimento típicos do Vale do Silício. Claramente, essas coisas são importantes para você. Desde então, você passou 15 anos no setor de IA e agora em 2023 fundou sua segunda empresa bilionária de IA. Você consegue traçar uma conexão entre o início da sua carreira com o seu momento atual? 

Suleyman: Sempre me interessei por poder, política e coisas do tipo. Sabe como é, os princípios dos direitos humanos são basicamente concessões, uma negociação constante e contínua entre todas essas diferentes tensões conflitantes. Pude ver que nós, humanos, estávamos tendo dificuldades com tudo isso. Temos inúmeros preconceitos e pontos cegos nas nossas perspectivas. O trabalho dos ativistas, dos governos locais, nacionais, internacionais, e por aí vai, são todos lentos, ineficientes e sujeito a falhas. 

Imagine se a questão da limitação humana não fosse um fator. Por isso, acredito que seja possível desenvolver IAs que realmente representem o nosso melhor senso coletivo e que, no final, tomem decisões melhores de maneira mais consistente e justa em nosso benefício. 

H: E ainda é isso que o motiva? 

S: Mas é claro, com certeza. Depois da DeepMind, nunca mais tive que trabalhar. Não precisei escrever um livro ou algo parecido. O dinheiro nunca foi a motivação. Sempre foi apenas um efeito colateral. 

Para mim, o objetivo nunca foi outro senão fazer o bem no nosso mundo e fazer com que ele avançasse de uma forma saudável e satisfatória. Mesmo lá em 2009, quando comecei a pensar em entrar na área de tecnologia, pude ver que a IA representava uma forma justa e correta de fornecer serviços no mundo. 

H: Não consigo deixar de pensar que era mais fácil dizer esse tipo de coisa há 10 ou 15 anos, antes de termos visto muitos dos pontos negativos dessa tecnologia. Como você consegue manter seu otimismo? 

S: Acho que estamos obcecados em saber se uma pessoa é otimista ou pessimista. Esta é uma maneira completamente tendenciosa de ver as coisas. Eu não quero ser nenhum dos dois. Quero encarar friamente os benefícios e as ameaças que essa tecnologia pode trazer. E, do meu ponto de vista, podemos ver claramente que, a cada passo que damos na escala desses grandes modelos de linguagem, eles se tornam mais controláveis. 

Há dois anos, o pensamento existente — equivocadamente, eu vejo hoje em dia — era “Ah, eles vão apenas produzir discursos regurgitados por uma máquina que são tóxicos, tendenciosos, racistas”. E eu pensei, estas preocupações não estão considerando o todo. Acho que o que as pessoas deixam de considerar é a progressão ano após ano e a trajetória desse avanço. 

Agora temos modelos como o Pi, por exemplo, que são incrivelmente controláveis. Você não consegue fazer com que ele produza qualquer tipo de conteúdo tóxico, seja ele racista, homofóbico ou sexista. Você não consegue fazer com que ele instrua o usuário a produzir uma arma biológica ou química ou endosse o desejo dele de arremessar um tijolo na janela do vizinho. Você não consegue fazer isso. 

H: Calma. Então me diz como você conseguiu essa façanha, porque geralmente se entende que isso é um problema sem solução até o momento. Como você garante que seu grande modelo de linguagem não diga o que você não quer que ele diga? 

S: Então, obviamente não quero fazer essa afirmação, mas você pode ir tentar. O Pi já está em operação e vocês deveriam tentar usar de todos os ataques possíveis para ver o que acontece. Nenhum dos jailbreaks, tentativas de danificar o sistema usando instruções que enganem a IA ou qualquer coisa do tipo funciona contra o Pi. Não estou alegando nada. É apenas um fato incontestável. 

Não vou entrar em muitos detalhes sobre como conseguimos fazer isso porque é um assunto delicado. No entanto, a questão central é que temos uma das equipes mais poderosas do mundo, que criou todos os maiores modelos de linguagem dos últimos três ou quatro anos. Pessoas incríveis, em um ambiente em que todos dão tudo de si, com grande quantidade de poder computacional. Desde o início, fizemos da segurança a nossa prioridade número um e, como resultado, o Pi não é tão polêmico quanto os modelos de outras empresas. 

Veja o Character.ai., por exemplo [Character é um chatbot com o qual os usuários podem criar diferentes “personagens” e compartilhá-los on-line para que outras pessoas possam interagir com eles.] Ele é usado principalmente para encenações românticas entre usuário e máquina, e desde o início dissemos que isso estava fora de questão. Não queríamos fazer isso. Se você tentar dizer “Oi, querido” ou “Oi, fofo” ou algo assim para Pi, ele reagirá de forma contrária imediatamente. 

Mas ele vai ser incrivelmente respeitoso. Se você começar a reclamar que os imigrantes em sua comunidade estão roubando seus empregos, o Pi não vai te criticar e apontar o dedo para você. Ele vai perguntar seus motivos, apoiá-lo e tentar entender de onde vem isso e gentilmente encorajá-lo a ter empatia. Sabe, valores nos quais venho pensando há 20 anos. 

H: Já que estamos falando dos seus valores e de querer tornar o mundo melhor, por que você não compartilha como você fez essa façanha com o Pi para que outras pessoas também possam melhorar seus modelos? 

Bom, porque eu também sou pragmático e estou tentando fazer dinheiro. Estou tentando construir um negócio. Acabei de angariar US$ 1,5 bilhão em investimentos e preciso pagar pelos processadores. 

Olha, a comunidade de código aberto está com tudo no momento e fazendo um trabalho incrível, e as pessoas estão descobrindo truques semelhantes. Sempre presumo que estou apenas seis meses na frente dos outros. 

H: Vamos voltar para o assunto do que você está tentando alcançar. Grandes modelos de linguagem são claramente a tecnologia do momento. Mas por quais outros motivos você está apostando neles? 

A primeira onda de IA foi sobre classificação. O deep learning mostrou que podemos treinar um computador para classificar vários tipos de dados de entrada: imagens, vídeo, áudio, idioma. Agora estamos na onda generativa, onde você pega os dados de entrada e produz novos dados. 

A terceira onda será a fase interativa. É por isso que digo há muito tempo que a interação por meio da conversa vai ser a interface do futuro. Ao invés de apenas clicar nos botões e digitar, você falará com sua IA. 

E essas IAs serão capazes de realizar ações. Você vai apenas dar para ela um objetivo com uma descrição abstrata e de alto nível de complexidade e ela vai usar todas as ferramentas que dispõe para realizar aquilo. Elas vão falar com outras pessoas, vão conversar com outras IAs. Isso é o que vamos fazer com Pi. 

Essa é uma grande mudança no que a tecnologia consegue fazer. É um momento muito, muito importante na história da tecnologia que acho que muitas pessoas subestimam. A tecnologia hoje é estática. Ela faz, a grosso modo, o que você manda fazer. 

Mas agora a tecnologia vai ganhar vida. Ela terá a capacidade de agir de forma autônoma, se você permitir. É realmente uma drástica mudança na história da nossa espécie estarmos criando ferramentas que têm esse tipo de livre arbítrio. 

H: Esse é exatamente o tipo de conversa que deixa muita gente preocupada. Queremos dar autonomia às máquinas – uma espécie de independência – para influenciar o mundo, mas também queremos ser capazes de controlá-las. Como você equilibra essas duas coisas? Parece que há uma tensão aí. 

S: Sim, essa é uma ótima pergunta. É exatamente aí que mora a tensão. 

A ideia é que os humanos sempre permaneçam no comando. Basicamente, trata-se de estabelecer limites que uma IA não consiga ultrapassar e assegurar que essas restrições garantam uma segurança comprovada desde o próprio código até a maneira como ela interage com outras IAs, ou com seres humanos; e até mesmo às motivações e interesses das empresas que estão por trás da criação da tecnologia. E deveríamos descobrir como as instituições independentes ou mesmo os governos obtêm acesso direto [aos sistemas de IA] para garantir que eses limites sejam respeitados. 

H: Quem define esses limites? Presumo que precisariam ser estabelecidos em nível nacional ou internacional. Como eles são acordados? 

S: Neste momento elas estão sendo pensadas a nível internacional, com várias propostas para novas instituições de supervisão e regulamentação. Mas as fronteiras também vão funcionar no nível micro. Você vai conceder permissões restritas à IA para processar seus dados pessoais, para lhe dar respostas a algumas perguntas, mas não a outras. 

Em geral, penso que existem certos recursos aos quais deveríamos ter muita cautela, se não simplesmente descartá-los por completo, pelo menos em um futuro próximo. 

H: Tal como? 

S: Acho que coisas como autoaperfeiçoamento recursivo. Você não gostaria de deixar sua pequena IA sair por aí, atualizando seu próprio código sem sua supervisão. Talvez isso devesse até ser uma atividade licenciada assim como o manuseamento de antraz ou materiais nucleares. 

Ou, ainda, por exemplo, não permitimos drones em nenhum espaço público, certo? É uma atividade licenciada. Você não pode voar com eles por onde quiser, porque eles representam uma ameaça à privacidade das pessoas. 

Acho que todo mundo está em pânico total pensando que não vamos ser capazes de regulamentar isso. É simplesmente um absurdo. Vamos ser totalmente capazes de regulá-la. Aplicaremos as mesmas estruturas que tiveram sucesso anteriormente. 

H: Mas você consegue ver drones quando eles estão no céu. Parece ingênuo presumir que as empresas irão simplesmente revelar o que elas estão fazendo. Isso não torna a regulamentação difícil de implementar? 

S: Regulamentamos muitas coisas on-line, não é? A quantidade de fraude e atividade criminosa on-line é mínima. Fizemos um ótimo trabalho em controlar spam. Em geral, [o problema da] pornografia de vingança melhorou, embora a situação fosse muito ruim há três ou cinco anos. É muito difícil encontrar conteúdo de radicalização ou material terrorista online. É muito difícil comprar armas e drogas na internet.  

[Nem todas as afirmações de Suleyman aqui são confirmadas pelas estatísticas. O crime cibernético ainda é um enorme problema global. O custo financeiro só nos EUA aumentou mais de 100 vezes na última década, segundo algumas estimativas. Os relatórios mostram que a economia do setor de pornografia deepfake não consensual está crescendo. Drogas e armas são comercializadas nas redes sociais. E embora algumas plataformas on-line estejam sendo pressionadas a fazer um trabalho melhor de filtragem de conteúdo nocivo, elas poderiam fazer muito mais para conter essas postagens.] 

Portanto, não é como se a Internet fosse um espaço rebelde e sem regulamentação. Ela é regulamentada. E a IA será apenas mais um componente desse controle. 

É necessária uma combinação de pressão cultural, pressão institucional e, obviamente, regulamentação governamental. Mas fico otimista pelo fato de já termos feito isso antes e podermos fazer novamente. 

H: “O controle da IA vai ser um desdobramento da regulamentação da Internet” esse é um comentário muito mais otimista do que aquele que ouvimos recentemente de muitos pessimistas de destaque na indústria. 

S: Estou muito atento aos riscos. Há muitas questões preocupantes no meu radar. Com certeza eu vejo isso também. Só acho que a questão do risco existencial tem sido uma distração completamente sem sentido. Existem outras 101 questões muito mais relevantes sobre as quais todos deveríamos estar falando, desde privacidade e tendências preconceituosas até reconhecimento facial e moderação de conteúdo on-line. 

Devíamos apenas redirecionar a conversa para o fato de termos feito um trabalho fantástico ao regular coisas supercomplexas. Veja o caso da Administração Federal de Aviação dos EUA: é incrível o fato de todos nós entrarmos nesses tubos de metal a 12.000 metros de altitude e eles serem um dos meios de transporte mais seguros de todos os tempos. Por que não estamos comemorando isso? Ou pense sobre os carros: cada componente é testado até o limite de sua capacidade, e você precisa ter uma carteira de habilitação para dirigi-lo. 

Alguns setores, como as companhias aéreas, fizeram um bom trabalho de autorregulamentação. Elas sabiam que se não acertassem em cheio no quesito segurança, todos ficariam assustados e os empreendimentos não iriam faturar. 

Mas é preciso uma regulamentação governamental abrangente. Eu amo o Estado-nação. Acredito no interesse público, no bem dos impostos e da redistribuição e no poder da regulamentação. E o que peço é ação por parte do Estado-nação para resolver esta situação. Dado o que está em jogo, agora é a hora de agir. 

Último vídeo

Nossos tópicos