Você confiaria em uma IA para mediar um conflito?
Inteligência artificial

Você confiaria em uma IA para mediar um conflito?

Há evidências crescentes de que os chatbots podem nos ajudar a lidar com situações sociais complexas. Mas eles apresentam algumas limitações significativas.

Banner indicando a posição do botão de download do artigo em formato pdf

Recentemente, tenho me sentido arrasada. Uma amiga muito próxima cortou contato comigo. Eu não entendo muito bem o motivo, e minhas tentativas de resolver a situação não deram certo. Situações como essa são dolorosas e confusas. Portanto, não é surpreendente que as pessoas estejam cada vez mais recorrendo a chatbots de IA para ajudá-las a resolver esses problemas. E há boas notícias: a IA pode realmente ajudar.

Pesquisadores do Google DeepMind treinaram recentemente um sistema de grandes modelos de linguagem para ajudar as pessoas a chegarem a um acordo sobre questões sociais ou políticas complexas, mas importantes. O modelo de IA foi treinado para identificar e apresentar áreas de concordância entre as ideias das pessoas. Com a ajuda desse mediador de IA, pequenos grupos de participantes do estudo se mostraram menos divididos em suas posições sobre vários temas.

Uma das melhores utilizações de chatbots de IA é para brainstorming. Já tive sucesso no passado ao usá-los para redigir e-mails mais assertivos ou persuasivos em situações delicadas, como reclamar de serviços ou negociar contas. Esta pesquisa mais recente sugere que eles também podem nos ajudar a enxergar as coisas pela perspectiva de outras pessoas. Então, por que não usar a IA para consertar minha relação com minha amiga?

Descrevi o conflito, da maneira como eu o vejo, ao ChatGPT e pedi conselhos sobre o que eu deveria fazer. A resposta foi muito reconfortante, pois o chatbot de IA apoiou a forma como eu estava abordando o problema. O conselho que ele deu estava alinhado com o que eu já havia pensado em fazer. Achei útil conversar com o bot e obter mais ideias sobre como lidar com minha situação específica. Mas, no final, fiquei insatisfeita, porque o conselho ainda era bem genérico e vago (“Defina seus limites com calma” e “Comunique seus sentimentos”) e não oferecia o tipo de percepção que um terapeuta poderia dar.

Mini Banner - Assine a MIT Technology Review

E há outro problema: todo argumento tem dois lados. Iniciei uma nova conversa e descrevi o problema como acredito que minha amiga o vê. O chatbot apoiou e validou as decisões dela, da mesma forma que fez comigo. Por um lado, esse exercício me ajudou a enxergar as coisas pela perspectiva dela. Afinal, tentei me colocar no lugar da outra pessoa, não apenas ganhar uma discussão. Mas, por outro lado, consigo ver perfeitamente uma situação em que confiar demais no conselho de um chatbot que nos diz o que queremos ouvir pode nos levar a reafirmar nossas opiniões, impedindo-nos de ver as coisas pela perspectiva do outro.

Isso serviu como um bom lembrete: um chatbot de IA não é um terapeuta ou um amigo. Embora ele possa repetir os vastos textos da internet nos quais foi treinado, ele não entende o que é sentir tristeza, confusão ou alegria. Por isso, eu recomendaria cautela ao usar chatbots de IA para coisas que realmente importam para você, e não levar o que eles dizem ao pé da letra.

Um chatbot de IA nunca pode substituir uma conversa real, onde ambos os lados estão dispostos a ouvir de verdade e levar em conta o ponto de vista do outro. Então, decidi deixar de lado a conversa assistida por IA e entrei em contato com minha amiga mais uma vez. Deseje-me sorte!

Último vídeo

Nossos tópicos