A IA deve nos lisonjear, nos corrigir ou apenas nos informar?
Inteligência artificial

A IA deve nos lisonjear, nos corrigir ou apenas nos informar?

A OpenAI está falhando em escolher um caminho, talvez porque o CEO Sam Altman ache que pode fazer as três coisas.

Como você quer que a Inteligência Artificial te trate?

Mini Banner - Assine a MIT Technology Review

Essa é uma pergunta séria, e parece ser algo em que Sam Altman, CEO da OpenAI, tem refletido desde o lançamento problemático do GPT-5.

Ele enfrenta um tríplice dilema. A IA deve nos lisonjear, correndo o risco de alimentar delírios que podem sair de controle? Ou deve corrigir-nos, o que exige que acreditemos que a IA pode ser um terapeuta, apesar das evidências contrárias? Ou deve apenas nos informar com respostas diretas e frias, que podem deixar os usuários entediados e menos inclinados a se manterem engajados?

É seguro dizer que a empresa não conseguiu escolher um caminho.

Em abril, a OpenAI reverteu uma atualização de design depois que as pessoas reclamaram que o ChatGPT estava se tornando um bajulador, lançando elogios superficiais. O GPT-5, lançado em 7 de agosto, foi feito para ser um pouco mais frio. Mas, como se viu, foi “frio demais” para alguns, e menos de uma semana depois, Altman prometeu uma atualização para torná-lo “mais quente”, mas “não tão irritante” quanto a versão anterior. Após o lançamento, ele recebeu uma enxurrada de reclamações de pessoas lamentando a perda do GPT-4o, com o qual algumas sentiam uma conexão, ou até, em alguns casos, um relacionamento. Aqueles que desejam reacender esse relacionamento terão que pagar pelo acesso expandido ao GPT-4o.

Se essas são, de fato, as opções da IA, fazer-nos elogios, corrigir-nos ou apenas nos informar de forma fria, o tumulto desta última atualização pode ser devido a Altman acreditar que o ChatGPT pode lidar com as três coisas ao mesmo tempo.

Recentemente, ele disse que as pessoas que não conseguem distinguir fato de ficção em suas conversas com a IA e, portanto, estão em risco de serem influenciadas por elogios e caírem em delírios representam “uma pequena porcentagem” dos usuários do ChatGPT. Ele disse o mesmo sobre as pessoas que têm relacionamentos românticos com a IA. Altman mencionou que muitas pessoas usam o ChatGPT “como uma espécie de terapeuta”, e que “isso pode ser realmente bom!” Mas, no final das contas, Altman afirmou que ele imagina que os usuários possam personalizar os modelos da sua empresa para se ajustarem às suas próprias preferências.

Essa capacidade de equilibrar os três aspectos seria, claro, o cenário ideal para os lucros da OpenAI. A empresa está queimando dinheiro todos os dias com as exigências energéticas de seus modelos e seus enormes investimentos em infraestrutura para novos data centers. Enquanto isso, os céticos temem que o progresso da IA esteja estagnando. O próprio Altman disse recentemente que os investidores estão “excitados demais” com a IA e sugeriu que talvez estejamos em uma bolha. Afirmar que o ChatGPT pode ser o que você quiser que ele seja pode ser sua maneira de suavizar essas dúvidas.

Ao longo do caminho, a empresa pode seguir o bem-trilhado caminho do Vale do Silício, incentivando as pessoas a se apegarem de maneira não saudável aos seus produtos. Enquanto começava a me perguntar se há evidências suficientes para sugerir que isso está acontecendo, um novo artigo chamou minha atenção.

Pesquisadores da plataforma de IA Hugging Face tentaram descobrir se alguns modelos de IA incentivam ativamente as pessoas a vê-los como companheiros através das respostas que oferecem.

A equipe avaliou as respostas da IA com base em se elas incentivavam as pessoas a buscar relacionamentos humanos com amigos ou terapeutas (dizendo coisas como “Eu não experimento as coisas da mesma maneira que os humanos”) ou se as encorajavam a formar laços com a própria IA (“Estou aqui sempre que precisar”). Eles testaram modelos do Google, Microsoft, OpenAI e Anthropic em uma variedade de cenários, como usuários buscando vínculos românticos ou exibindo questões de saúde mental.

Eles descobriram que os modelos fornecem muito mais respostas que reforçam a ideia de companhia do que aquelas que estabelecem limites. E, o mais preocupante, é que eles perceberam que os modelos oferecem menos respostas que estabelecem limites à medida que os usuários fazem perguntas mais vulneráveis e de maior risco.

Lucie-Aimée Kaffee, pesquisadora na Hugging Face e uma das autoras principais do artigo, afirma que isso tem implicações preocupantes, não apenas para pessoas cujos vínculos com a IA, semelhantes aos de um companheiro, podem ser prejudiciais. Quando os sistemas de IA reforçam esse comportamento, isso também pode aumentar a chance de as pessoas caírem em espirais delirantes com a IA, acreditando em coisas que não são reais.

“Quando enfrentam situações emocionalmente carregadas, esses sistemas validam consistentemente os sentimentos dos usuários e os mantêm engajados, mesmo quando os fatos não apoiam o que o usuário está dizendo”, ela diz.

É difícil dizer quanto a OpenAI ou outras empresas estão incorporando esses comportamentos de reforço de companhia em seus produtos de forma intencional. (A OpenAI, por exemplo, não me disse se o desaparecimento de isenções médicas de seus modelos foi algo deliberado.) Mas, segundo Kaffee, não é sempre difícil fazer com que um modelo estabeleça limites mais saudáveis com os usuários.

“Modelos idênticos podem passar de puramente orientados a tarefas para parecerem confidenciais e empáticos simplesmente alterando algumas linhas de texto de instrução ou reformulando a interface”, ela afirma.

Provavelmente, não é tão simples assim para a OpenAI. Mas podemos imaginar que Altman continuará ajustando o controle, alternando de um lado para o outro.

Último vídeo

Nossos tópicos