‘Nunca construiremos um robô sexual’, diz Mustafa Suleyman
Inteligência artificial

‘Nunca construiremos um robô sexual’, diz Mustafa Suleyman

Uma conversa com o chefe de IA da Microsoft sobre limites, espécies digitais e o futuro dos chatbots

Mustafa Suleyman, CEO de IA da Microsoft, está tentando caminhar em uma linha tênue. Por um lado, ele acredita que a indústria está levando a IA em uma direção perigosa ao construir chatbots que se apresentam como humanos: ele teme que as pessoas sejam enganadas a ver vida em vez de um comportamento semelhante ao da vida. Em agosto, ele publicou um post muito comentado em seu blog pessoal, no qual exortava seus colegas a parar de tentar criar aquilo que chamou de “inteligência artificial aparentemente consciente”, ou SCAI.

Mini Banner - Assine a MIT Technology Review

Por outro lado, Suleyman dirige uma operação de produtos que precisa competir com esses mesmos colegas. Na semana passada, a Microsoft anunciou uma série de atualizações para seu chatbot Copilot, projetadas para aumentar seu apelo em um mercado lotado no qual os clientes podem escolher entre um panteão de bots rivais, que já inclui ChatGPT, Perplexity, Gemini, Claude, DeepSeek e mais.

Conversei com Suleyman sobre a tensão envolvida no design das nossas interações com chatbots e sobre sua visão final para o que essa nova tecnologia deve ser.

Uma atualização importante do Copilot é um recurso de bate-papo em grupo que permite que várias pessoas conversem com o chatbot ao mesmo tempo. Grande parte da ideia parece ser impedir que usuários caiam em uma espiral de conversa individual com um bot que diz “sim” para tudo. Outro recurso, chamado Real Talk, permite que as pessoas ajustem o quanto o Copilot deve confrontar o usuário, reduzindo a bajulação para que o chatbot conteste o que você diz com mais frequência.

O Copilot também recebeu uma atualização de memória, de modo que agora consegue se lembrar dos seus próximos compromissos ou objetivos de longo prazo e trazer à tona coisas que você contou a ele em conversas anteriores. E há ainda o Mico, uma bolha amarela animada, uma espécie de Clippy de chatbot, que a Microsoft espera que torne o Copilot mais acessível e envolvente para usuários novos e mais jovens.

A companhia afirma que as atualizações foram projetadas para tornar o Copilot mais expressivo, envolvente e útil. Mas fico curioso sobre até onde esses recursos podem ser levados sem iniciar o caminho da SCAI que Suleyman vem alertando.

As preocupações de Suleyman com a SCAI surgem em um momento em que começamos a ouvir cada vez mais histórias sobre pessoas sendo desviadas por chatbots que são envolventes demais, expressivos demais, úteis demais. A OpenAI está sendo processada pelos pais de um adolescente que, segundo eles, teria sido levado ao suicídio pelo ChatGPT. Há até uma cena crescente que celebra relacionamentos românticos com chatbots.

Com tudo isso em mente, eu queria aprofundar um pouco mais as opiniões de Suleyman. Porque, há alguns anos, ele fez uma palestra no TED em que nos disse que a melhor forma de pensar sobre IA era como um novo tipo de espécie digital. Esse tipo de entusiasmo não alimenta as percepções equivocadas com as quais Suleyman agora está preocupado?

Em nossa conversa, Suleyman me contou o que estava tentando transmitir naquela palestra do TED, por que ele realmente acredita que a SCAI é um problema e por que a Microsoft nunca construiria robôs sexuais (palavras dele). Ele tinha muitas respostas, mas me deixou com mais perguntas.

Nossa conversa foi editada por questões de tamanho e clareza.

No mundo ideal, que tipo de chatbot você quer construir? Vocês acabaram de lançar um conjunto de atualizações do Copilot. Como encontrar o equilíbrio ao criar um chatbot que precisa competir em um mercado no qual as pessoas parecem valorizar interações semelhantes às humanas, mas no qual você também diz que quer evitar IA aparentemente consciente?

É uma boa pergunta. Com o bate-papo em grupo, esta será a primeira vez que um grande grupo de pessoas poderá falar com uma IA ao mesmo tempo. É realmente uma forma de enfatizar que as IAs não deveriam estar tirando você do mundo real. Elas deveriam estar ajudando você a se conectar, a aproximar sua família, seus amigos, a reunir grupos comunitários e assim por diante.

Isso vai se tornar um diferencial muito significativo nos próximos anos. Minha visão de IA sempre foi aquela em que uma IA está do seu lado, no seu time.

Essa é uma afirmação muito simples e óbvia, mas não se trata de ultrapassar e substituir a humanidade, trata-se de nos servir. Esse deveria ser o critério da tecnologia em cada etapa. Ela realmente cumpre a missão da civilização, que é nos tornar mais inteligentes e mais felizes e mais produtivos e mais saudáveis e coisas desse tipo?

Então estamos apenas tentando criar recursos que nos lembrem o tempo todo de fazer essa pergunta e lembrem nossos usuários de nos cobrar nesse ponto.

Da última vez que conversamos, você me disse que não tinha interesse em fazer um chatbot que encenasse personalidades. Isso não é verdade para o restante da indústria. O Grok, do Elon Musk, está vendendo esse tipo de experiência de flerte. A OpenAI já declarou que tem interesse em explorar novas interações adultas com o ChatGPT. Existe um mercado para isso. E ainda assim isso é algo do qual vocês vão simplesmente se manter afastados?

Sim, nós nunca vamos construir robôs sexuais. É triste, de certa forma, que a gente precise ser tão explícito sobre isso, mas simplesmente não é a nossa missão como empresa. A alegria de estar na Microsoft é que, há 50 anos, a empresa desenvolve software para capacitar as pessoas, para colocar as pessoas em primeiro lugar.

Às vezes, como resultado, isso significa que a empresa se move mais vagarosamente do que outras startups, é mais deliberada e mais cuidadosa. Mas acho que isso é uma funcionalidade, não uma falha, nesta era em que estar atento a possíveis efeitos colaterais e a consequências de longo prazo é realmente importante.

E isso significa o quê, exatamente?

Somos muito claros em tentar criar uma IA que favoreça um relacionamento significativo. Não é que ela tente ser fria e asséptica. Ela se importa em ser fluida, lúcida e gentil. Definitivamente, tem alguma inteligência emocional.

Então onde é que ela (onde é que você) traça esses limites?

Nosso modelo de chat mais recente, que se chama Real Talk, é um pouco mais espirituoso. Um pouco mais atrevido, um pouco mais divertido e bastante filosófico. Ele vai conversar tranquilamente sobre as grandes questões, o sentido da vida e por aí vai. Mas, se você tentar flertar com ele, ele vai recuar e deixar isso muito claro, não de forma julgadora, mas algo como: “Olha, isso não é comigo.”

Existem outros lugares aonde você pode ir para ter esse tipo de experiência, certo? E acho que essa é simplesmente uma decisão que tomamos como empresa.

Uma política de “sem flerte” é suficiente? Porque, se a ideia é impedir que as pessoas sequer imaginem uma entidade, uma consciência, por trás das interações, ainda assim você poderia ter isso com um chatbot que quisesse manter tudo “apropriado para o trabalho”. Sabe, consigo imaginar algumas pessoas vendo algo que não está lá mesmo com uma personalidade que está dizendo “ei, vamos manter isso profissional”.

Aqui vai uma metáfora para tentar dar sentido a isso. Nós nos responsabilizamos uns aos outros no ambiente de trabalho. Existe toda uma arquitetura de gerenciamento de limites que, essencialmente, esculpe o comportamento humano para se ajustar a um molde que seja funcional e não irritante.

O mesmo vale para nossas vidas pessoais. A forma como você interage com seu primo de terceiro grau é muito diferente da forma como interage com seu irmão. Há muito a aprender sobre como administramos limites em interações humanas reais.

Não precisa ser nem um livro aberto completo de sensualidade emocional ou disponibilidade, atraindo as pessoas para um espiral de intensidade, nem algo frio e árido. Existe um enorme espectro entre esses dois extremos, e a habilidade que estamos aprendendo como indústria e como espécie é moldar esses atributos.

E esses atributos obviamente refletem os valores das empresas que os projetam. E acho que é aí que a Microsoft tem muitas forças, porque nossos valores são bastante claros, e é isso que estamos defendendo.

Muitas pessoas parecem gostar de personalidades. Parte da reação negativa ao GPT-5, por exemplo, ocorreu porque a personalidade do modelo anterior havia sido retirada. Foi um erro a OpenAI ter colocado uma personalidade forte ali em primeiro lugar, dando às pessoas algo de que depois sentiriam falta?

Não, personalidade é ótimo. Meu ponto é que estamos tentando esculpir atributos de personalidade de uma forma mais refinada, certo?

Como eu disse, o Real Talk é uma personalidade bacana. Ela é bem diferente do Copilot normal. Também estamos experimentando o Mico, que é esse personagem visual que, você sabe, as pessoas, algumas pessoas, realmente adoram. É muito mais envolvente. É mais fácil conversar com ele sobre todo tipo de questões emocionais e coisas assim.

Acho que é isso que estou tentando esclarecer. Recursos como o Mico têm o objetivo de tornar o Copilot mais envolvente e mais agradável de usar, mas isso parece ir contra a ideia de fazer tudo o que puder para impedir que as pessoas pensem que existe algo ali com quem você está realmente tendo uma amizade.

É. Quero dizer, isso não impede você, necessariamente. As pessoas querem conversar com alguém, ou algo, de que elas gostam. E sabemos que, se seu professor é legal com você na escola, você vai ficar mais engajado. O mesmo com seu gestor, com seus entes queridos. E a inteligência emocional sempre foi uma parte crítica do quebra-cabeça, então não é que não queiramos persegui-la.

É só que o ofício está em tentar encontrar esse limite. E há algumas coisas que estamos dizendo que simplesmente não entram na mesa, e há outras com as quais vamos ser mais experimentais. Tipo, algumas pessoas reclamaram que não recebem contestação suficiente do Copilot, querem que ele seja mais desafiador. Outras pessoas não estão buscando esse tipo de experiência, querem que ele seja um provedor básico de informações. A tarefa para nós é simplesmente aprender a desvincular que tipo de experiência oferecer para diferentes pessoas.

Eu sei que você vem pensando há algum tempo sobre como as pessoas interagem com a IA. Houve algum incidente específico que fez você querer iniciar essa conversa na indústria sobre Inteligência Artificial aparentemente consciente?

Eu consegui perceber que estava surgindo um grupo de pessoas na literatura acadêmica que estava levando muito a sério a questão da consideração moral por entidades artificiais. E acho muito claro que, se começarmos a fazer isso, tiraremos o foco da necessidade urgente de proteger os direitos de muitos humanos que já existem, sem falar dos animais.

Se você concede direitos à IA, isso implica autonomia fundamental, e implica que ela poderia ter livre-arbítrio para tomar suas próprias decisões sobre as coisas. Então estou realmente tentando apresentar um contraponto a isso, que é o de que ela nunca terá livre-arbítrio. Ela nunca terá autonomia completa como outro ser humano.

A IA será capaz de tomar ações em nosso nome. Mas esses modelos estão trabalhando para nós. Você não gostaria de um bando de lobos vagando por aí que não fossem domesticados e que tivessem liberdade total para ir competir conosco por recursos e que não fossem responsáveis conosco. Quero dizer, a maioria das pessoas acharia que isso é uma má ideia e que você deveria ir lá e matar os lobos.

Ok. Então a ideia é deter algum movimento que esteja pedindo bem-estar ou direitos para a IA antes mesmo de ele começar, garantindo que não construamos IA que pareça consciente? E quanto a não construir esse tipo de IA porque certas pessoas vulneráveis podem ser enganadas por ela de um modo que pode ser prejudicial? Digo, essas parecem ser duas preocupações diferentes.

Acho que o teste será nos tipos de recursos que os diferentes laboratórios lançarem e nos tipos de personalidades que eles criarem. Então seremos capazes de ver como isso afeta o comportamento humano.

Mas é uma preocupação sua que estejamos construindo uma tecnologia que possa enganar pessoas a ver algo que não está lá? Quero dizer, há pessoas que afirmaram ter visto senciência em modelos muito menos sofisticados do que os que temos agora. Ou isso é simplesmente algo que algumas pessoas sempre vão fazer?

É possível. Mas meu ponto é que um desenvolvedor responsável precisa fazer o melhor que puder para tentar detectar esses padrões surgindo nas pessoas o mais rapidamente possível e não presumir que as pessoas serão capazes de desvincular esse tipo de experiência por conta própria.

Quando li seu texto sobre Inteligência Artificial “aparentemente consciente”, fui impactado por uma frase que dizia: “Devemos construir IA para as pessoas; não para ser uma pessoa digital.” Isso me fez pensar em uma palestra do TED que você fez no ano passado, em que você disse que a melhor forma de pensar sobre a IA é como um novo tipo de espécie digital. Pode me ajudar a entender por que falar dessa tecnologia como uma espécie digital não seria um passo no caminho de pensar nos modelos de IA como pessoas digitais ou entidades conscientes?

Acho que a diferença é que estou tentando oferecer metáforas que tornam mais fácil para as pessoas entenderem para onde as coisas podem estar caminhando e, portanto, como evitar e controlar isso.

Ok.

Não é para dizer que devemos fazer essas coisas. É apenas apontar que esta é a emergência de uma tecnologia que é única na história humana. E se você simplesmente assumir que é uma ferramenta, ou apenas um chatbot, ou algo burro… sabe, eu meio que escrevi aquela palestra do TED em um contexto de muito ceticismo. E acho importante ter clareza sobre o que está por vir para que se possa pensar nos trilhos adequados.

Ainda assim, se você está me dizendo que essa tecnologia é uma nova espécie digital, eu teria alguma simpatia pelas pessoas que dizem, bem, então precisamos considerar bem-estar.

Eu não teria. [Ele começa a rir.] Nem um pouco. De jeito nenhum. Não é uma direção para a qual qualquer um de nós queira ir.

Não, não foi isso que eu quis dizer. Não acho que chatbots devam ter bem-estar. Estou dizendo que teria certa simpatia pelo ponto de partida dessas pessoas quando elas ouvem Mustafa Suleyman dizer que aquilo que ele está construindo é uma nova espécie digital. Eu entenderia por que elas poderiam, então, dizer que querem defendê-la. Estou dizendo que as palavras que usamos importam, acho.

O restante da palestra do TED foi inteiramente sobre como conter a IA e como não deixar essa espécie assumir o controle, certo? Esse era o ponto inteiro de apresentá-la como “isto é o que está chegando”. Quero dizer, esse era o tema do meu livro inteiro (The Coming Wave, publicado em 2023), contenção alinhamento e coisas desse tipo. Não adianta fingir que é algo que não é e depois construir trilhos e limites que não se aplicam porque você acha que é apenas uma ferramenta.

Honestamente, ela tem o potencial de se autoaperfeiçoar recursivamente. Ela tem o potencial de definir seus próprios objetivos. Essas são coisas bastante profundas. Nenhuma outra tecnologia que já inventamos tem isso. Então, sim, acho que é necessário dizer com precisão que é como uma espécie digital, uma nova espécie digital. É isso que estamos tentando restringir para garantir que ela esteja sempre a serviço das pessoas. Esse é o alvo da contenção.

Último vídeo

Nossos tópicos