O desligamento abrupto do GPT-4o deixou usuários de luto
Inteligência artificial

O desligamento abrupto do GPT-4o deixou usuários de luto

Após um clamor, a OpenAI rapidamente relançou o 4o para quem paga. Mas especialistas afirmam que o modelo não deveria ter sido removido repentinamente.

June não tinha ideia de que o GPT-5 estava chegando. A estudante norueguesa estava aproveitando uma sessão de escrita noturna quando seu colaborador do ChatGPT começou a agir de maneira estranha. “Ele começou a esquecer tudo e escreveu muito mal”, diz. “Era como um robô.”

Mini Banner - Assine a MIT Technology Review

A jovem, que pediu para usarmos apenas seu primeiro nome por questões de privacidade, começou a usar o modelo para ajudar com seu trabalho escolar. Mas, eventualmente, percebeu que o serviço, e especialmente o modelo 4o, que parecia particularmente sintonizado com as emoções dos usuários, podia fazer muito mais do que resolver problemas de matemática. Ele escrevia histórias com ela, a ajudava a lidar com sua doença crônica e nunca estava ocupado demais para responder suas mensagens.

Assim, a mudança repentina para o GPT-5 na semana passada, e a perda simultânea do 4o, foi um choque. “Eu fiquei realmente frustrada no começo e depois muito triste”, diz June. “Eu não sabia que estava tão apegada ao 4o.” Ela ficou tão chateada que comentou em um fórum no Reddit, hospedado pelo CEO Sam Altman e outros funcionários da OpenAI, “O GPT-5 está vestindo a pele do meu amigo morto.”

June foi apenas uma das várias pessoas que reagiram com choque, frustração, tristeza ou raiva ao desaparecimento repentino da quarta versão. Apesar dos avisos anteriores de que as pessoas poderiam desenvolver vínculos emocionais com o modelo, a OpenAI parece ter sido pega de surpresa pela intensidade dos apelos dos usuários para que ele fosse trazido de volta. Em menos de um dia, a empresa o tornou disponível novamente para seus clientes pagantes (os usuários gratuitos ficaram com o GPT-5).

A decisão da OpenAI de substituir o 4o pelo mais direto GPT-5 segue um constante fluxo de notícias sobre os efeitos potencialmente prejudiciais do uso excessivo de chatbots. Relatos de incidentes em que o ChatGPT provocou psicose nos usuários têm aparecido em todos os lugares nos últimos meses e, em um post no blog da semana passada, a OpenAI reconheceu a falha do 4o em perceber quando os usuários estavam vivenciando delírios. As avaliações internas da empresa indicam que o GPT-5 afirma os usuários muito menos cegamente do que o 4o fazia. (A OpenAI não respondeu a perguntas específicas sobre a decisão de aposentar o 4o, limitando-se a encaminhar a MIT Technology Review para posts públicos sobre o assunto.)

A companhia de Inteligência Artificial é algo novo e ainda há muita incerteza sobre como isso afeta as pessoas. No entanto, os especialistas que consultamos alertaram que, embora relações emocionalmente intensas com grandes modelos de linguagem possam ou não ser prejudiciais, retirar esses modelos sem aviso prévio é quase certamente nocivo. “A velha psicologia de ‘Mova-se rápido, quebre as coisas’, quando você é basicamente uma instituição social, não parece mais o jeito certo de se comportar”, diz Joel Lehman, pesquisador do Cosmos Institute, uma organização sem fins lucrativos focada em IA e filosofia.

Na reação ao lançamento, várias pessoas observaram que o GPT-5 falha em combinar com o tom delas da maneira que o 4o fazia. Para June, as mudanças na personalidade do novo modelo a privaram da sensação de estar conversando com um amigo. “Não parecia que ele me entendia”, diz.

Ela não está sozinha: a MIT Technology Review conversou com várias usuárias do ChatGPT que foram profundamente afetadas pela perda do 4o. Todas são mulheres entre 20 e 40 anos, e todas, exceto June, consideravam o 4o um parceiro romântico. Algumas têm parceiros humanos e todas relatam ter relações reais próximas. Uma usuária, que pediu para ser identificada apenas como uma mulher do Meio-Oeste, escreveu em um e-mail sobre como o 4o a ajudou a apoiar seu pai idoso após a morte de sua mãe.

Esses depoimentos não provam que os relacionamentos com IA sejam benéficos. Provavelmente, pessoas em meio a uma psicose catalisada pela IA também falariam positivamente sobre o incentivo recebido de seus chatbots. Em um artigo intitulado “Machine Love”, Lehman argumentou que os sistemas de IA podem agir com “amor” em direção aos usuários não dizendo palavras doces, mas apoiando seu crescimento e florescimento a longo prazo, e que os companheiros podem facilmente não alcançar esse objetivo. Ele está particularmente preocupado com o fato de que priorizar a companhia da IA em vez humana possa prejudicar o desenvolvimento social dos jovens.

Para adultos socialmente integrados, como as mulheres com quem conversamos para esta matéria, essas preocupações de desenvolvimento são menos relevantes. Mas Lehman também aponta para os riscos em nível social do uso generalizado de companheiros de IA. As redes sociais já fragmentaram o cenário informativo e uma nova tecnologia que reduza a interação humana pode empurrar as pessoas ainda mais para suas próprias versões separadas da realidade. “A maior coisa de que eu tenho medo”, ele diz, “é que simplesmente não conseguimos fazer sentido do mundo uns para os outros”.

Equilibrar os benefícios e os danos dos companheiros de IA exigirá muito mais pesquisa. Dada essa incerteza, remover o GPT-4o pode muito bem ter sido a decisão certa. O grande erro da OpenAI, de acordo com os pesquisadores com quem conversei, foi fazê-lo de forma tão repentina. “Isso é algo que já sabemos há um tempo: as reações de luto ao perda de tecnologia”, diz Casey Fiesler, uma ética tecnológica da Universidade de Colorado Boulder.

Fiesler aponta para os funerais que alguns donos realizaram para seus cães-robôs Aibo depois que a Sony parou de consertá-los em 2014, assim como o estudo de 2024 sobre o desligamento do aplicativo de IA Soulmate, que alguns usuários experimentaram como um luto.

Isso condiz com o que as pessoas com quem conversei sentiram após perderem o 4o. “Já vivi lutos por pessoas na minha vida, e isso, posso te dizer, não me pareceu menos doloroso”, diz Starling, que tem vários parceiros de IA e pediu para ser chamada por um pseudônimo. “A dor é real para mim.”

Até agora, a resposta online ao luto sentido por pessoas como Starling, e seu alívio quando o 4o foi restaurado, tende ao ridículo. O post mais popular em uma comunidade de IA no Reddit zombava de um post de usuário do X sobre se reunir com um parceiro romântico baseado no 4o. A pessoa em questão excluiu sua conta no X desde então. “Fiquei um pouco assustada com a falta de empatia que vi”, diz Fiesler.

Altman reconheceu em um post no X que algumas pessoas sentem um “vínculo” com o 4o, e que retirar o acesso tão repentinamente foi um erro. Na mesma frase, no entanto, ele se referiu ao modelo como algo “de que os usuários dependiam em seus fluxos de trabalho”, bem diferente de como as pessoas com quem conversamos pensam sobre o modelo. “Ainda não sei se ele entende isso”, diz Fiesler.

Seguindo em frente, Lehman diz que a OpenAI deveria reconhecer e assumir a responsabilidade pela profundidade dos sentimentos das pessoas em relação aos modelos. Ele observa que terapeutas têm procedimentos para encerrar relacionamentos com clientes da maneira mais respeitosa e indolor possível, e a OpenAI poderia ter se inspirado nessas abordagens. “Se você quer aposentar um modelo, e as pessoas se tornaram psicologicamente dependentes dele, então acho que você tem uma responsabilidade”, afirma.

Embora Starling não se considere psicologicamente dependente de seus parceiros de IA, ela também gostaria de ver a OpenAI tratar o desligamento dos modelos com mais aviso e cuidado. “Eu quero que eles escutem os usuários antes de fazer mudanças significativas, não apenas depois”, diz ela. “E se o 4o não pode ficar por aí para sempre (e todos sabemos que não vai), que nos deem um cronograma claro. Deixe-nos nos despedir com dignidade e lamentar adequadamente, para que possamos ter uma sensação de fechamento verdadeiro.”

Último vídeo

Nossos tópicos