Ano passado, na Google I/O, conferência anual onde a Google exibe seus novos aplicativos e tecnologias em desenvolvimento, o CEO da empresa, Sundar Pichai, revelou o “mais recente avanço no que diz respeito a compreensão da linguagem natural”: um chatbot chamado LaMDA, projetado para conversar sobre qualquer tópico.
Ele então fez uma demonstração onde o LaMDA respondeu a perguntas sobre Plutão em linguagem natural, mostrando ser uma maneira fácil de obter informações e uma alternativa aos mecanismos de buscas atuais. Em vez de listar os resultados da pesquisa digitada na caixa de busca, o LaMDA iniciou uma conversa onde interpretou o papel de Plutão com Sundar Pichai.
(Pichai) Diga-me o que eu veria se visitasse Plutão.
(LaMDA) Você veria um enorme desfiladeiro, alguns icebergs congelados, gêiseres e algumas crateras.
Parece bonito.
Eu te asseguro que a viagem vale a pena. No entanto, você precisa trazer seu casaco, porque fica bem frio.
A conversa foi boa, embora LaMDA tenha cometido alguns erros. A Inteligência Artificial (IA) de modelo de linguagem que o faz funcionar ainda está em desenvolvimento, explicou Pichai. E o Google diz que ainda não tem planos de usar o LaMDA em seus produtos. Mesmo assim, a empresa o está usando para explorar novas formas de interagir com computadores e buscar informações. “O LaMDA já entende bastante sobre Plutão e milhões de outros tópicos”, disse ele.
Essa visão de uma IA sabe-tudo que fornece informações relevantes e precisas em pedaços pequenos e fáceis de entender está influenciando a maneira como as empresas de tecnologia visualizam o futuro da pesquisa. E com o surgimento de assistentes de voz como a Siri e a Alexa, os modelos baseados em linguagem natural estão se tornando uma referência tecnológica para os mecanismos de busca no geral.
Mas os críticos estão começando a se opor à ideia, argumentando que a abordagem é equivocada. Uma resposta que use linguagem natural pode esconder a complexidade das perguntas por trás de uma fachada de autoridade que não é adequada aos computadores. “Focamos demais no que podíamos fazer e não analisamos o que devemos fazer”, diz Chirag Shah, da Universidade de Washington (EUA), que trabalha em tecnologias de busca.
Em 14 de março, Shah e sua colega da Universidade de Washington, Emily M. Bender, que estuda linguística computacional e questões éticas no processamento de linguagem natural, publicaram um artigo que critica o que eles veem como uma corrida para implementar modelos de linguagem em tarefas que fogem do seu propósito. Em particular, eles temem que o uso de modelos de linguagem para pesquisa possa levar a mais desinformação e debates mais polarizados.
“O mundo fictício de Star Trek, onde você tem esse computador onisciente que lhe responde a tudo o que você perguntar, não é o que podemos fornecer e nem o que precisamos”, diz Bender, coautora do artigo que levou Timnit Gebru a ser forçada a sair do Google, quando destacaram os perigos dos grandes modelos de linguagem.
Para Bender, não é apenas uma questão de a tecnologia de hoje não estar à altura do trabalho. “Acho que há algo errado com a visão”, diz ela. “É ingênuo pensar que a forma como obtemos informação é simplesmente fazer uma pergunta a um especialista e esperar que ele nos dê a resposta”.
O Google já usa modelos de linguagem para melhorar a tecnologia de pesquisa existente, ajudando a interpretar as buscas feitas pelos usuários com mais precisão. Mas alguns pesquisadores acreditam que os modelos de linguagem podem ser usados para remodelar a forma como as buscas são realizadas. LaMDA é apenas um exemplo.
No ano passado, o pesquisador do Google Don Metzler e seus colegas propuseram reinventar o mecanismo de busca como uma conversa de mão dupla entre usuário e máquina, com computadores respondendo a perguntas da mesma forma que um especialista humano. O Google também está desenvolvendo uma tecnologia chamada Modelo Unificado Multitarefa, ou MUM. Construído em cima de um modelo de linguagem, ele foi projetado para responder às consultas dos usuários reunindo informações de diferentes fontes.
“Estamos profundamente comprometidos em melhorar a compreensão da linguagem natural porque isso torna produtos como a Pesquisa do Google mais úteis para as pessoas”, diz Jane Park, gerente de comunicações da equipe de Pesquisa do Google. Mas ela diz que o Google ainda não tem planos de transformar essa nova possibilidade de pesquisa em produtos: “Sabemos que há vários desafios abertos na compreensão da linguagem, e é por isso que estamos adotando uma abordagem muito cautelosa”.
Imitadores irracionais
Grandes modelos de IA podem simular a linguagem natural com realismo impressionante. Treinados em centenas de livros e em grande parte da internet, eles absorvem enormes quantidades de informações, assim dizem. Por que não usá-los como uma espécie de mecanismo de busca, que pode sintetizar respostas de várias fontes e mastigá-las em frases de fácil compreensão?
O problema é que os modelos de linguagem são imitadores irracionais. Eles podem se tornar surpreendentemente precisos em prever as palavras ou frases com maior probabilidade de aparecer em uma frase ou conversa. Mas, apesar da afirmação de Pichai de que sua IA “entende” muitos tópicos, os modelos de linguagem não sabem o que estão dizendo e não podem raciocinar sobre o que suas palavras querem dizer.
Isso é importante porque a IA conversacional pode mudar a forma como pensamos nossas interações com as máquinas. Digitar uma dúvida em uma caixa de pesquisa e obter uma lista de respostas é como interagir com um computador, mas é diferente com os modelos de linguagem, diz Bender.
“Se, em vez disso, estou conversando com uma máquina, então o raciocínio é que a máquina entende o que estou dizendo”, diz ela. “E então vou interpretar as respostas da máquina nesse contexto”.
Hoje em dia já vemos usuários confiando cegamente nos resultados de pesquisa, diz Shah, e “interações de linguagem natural tornam isso mais evidente”.
A ideia de usar a IA para sintetizar e empacotar respostas obtidas de mecanismos de pesquisa é parte de uma tendência que começou com o uso do que é conhecido como respostas diretas ou snippets, respostas curtas ou pequenos trechos mostrados acima de links de artigos nos resultados de pesquisa. Em teoria, eles podem fornecer as informações que você procura rapidamente, evitando o trabalho de ler textos mais longos para encontrá-las.
Bender não é contra o uso de modelos de linguagem para todos os casos de trocas de perguntas e respostas. Ela tem um Assistente Google na cozinha, que usa para converter unidades de medida em uma receita. “Há momentos em que é super conveniente poder usar a voz para ter acesso às informações”, diz ela.
Mas Shah e Bender também dão um exemplo mais preocupante que surgiu no ano passado, quando o Google respondeu à pergunta “Qual é o idioma mais feio da Índia?” com um snippets “A resposta é Kannada, uma língua falada por cerca de 40 milhões de pessoas no sul da Índia”.
Sem respostas fáceis
Há um dilema aqui. As respostas diretas podem ser convenientes, mas também costumam ser incorretas, irrelevantes ou ofensivas. Elas podem esconder a complexidade do mundo real, diz Benno Stein da Bauhaus University em Weimar, Alemanha.
Em 2020, Stein e seus colegas Martin Potthast na Universidade de Leipzig e Matthias Hagen na Universidade Martin Luther em Halle-Wittenberg, Alemanha, publicaram um artigo destacando os problemas com respostas diretas. “A resposta para a maioria das perguntas é ‘depende’”, diz Matthias. “Isso é difícil de dizer a alguém que está buscando por algo”.
Stein e seus colegas veem dois estágios das tecnologias de pesquisa. Elas saíram de um momento onde organizavam e filtravam informações, por meio de técnicas como fornecer uma relação de links que correspondem a uma consulta de pesquisa, para fazer recomendações na forma de uma única resposta a uma pergunta. E eles acham que isto é dar um passo grande demais.
Novamente, o problema não são as limitações da tecnologia existente. Mesmo com a tecnologia perfeita, não obteríamos respostas perfeitas, diz Stein: “Não sabemos o que é uma boa resposta porque o mundo é complexo, mas esquecemos disso quando vemos essas respostas diretas”.
Shah concorda. Fornecer às pessoas uma única resposta pode ser problemático porque as fontes dessas informações e quaisquer discrepâncias entre elas está oculta, diz ele: “Isso realmente depende de confiarmos completamente nesses sistemas”.
Shah e Bender sugerem várias soluções para os problemas que antecipam. Em geral, as tecnologias de pesquisa devem oferecer suporte às várias maneiras pelas quais as pessoas usam os mecanismos de pesquisa hoje, muitas das quais não são atendidas por respostas diretas. As pessoas costumam usar a pesquisa para explorar tópicos sobre os quais talvez nem tenham perguntas específicas, diz Shah. Nesse caso, simplesmente oferecer uma lista de textos seria mais útil.
De onde vem a informação deve ficar claro, especialmente se uma IA estiver usando mais de uma fonte. Alguns assistentes de voz já fazem isso ao anunciar “Aqui está o que encontrei na Wikipedia”, por exemplo. As futuras ferramentas de pesquisa também devem ter a capacidade de dizer “Essa é uma pergunta idiota”, diz Shah. Isso ajudaria a tecnologia a evitar repetir premissas ofensivas ou tendenciosas em uma consulta.
Stein sugere que os mecanismos de busca baseados em IA podem apresentar razões para suas respostas, dando prós e contras de diferentes pontos de vista.
No entanto, muitas dessas sugestões destacam o dilema que Stein e seus colegas identificaram. Qualquer coisa que reduza o conforto e a praticidade será menos atraente para a maioria dos usuários. “Se você não vai até a segunda página dos resultados do Google, não vai querer ler argumentos diferentes”, diz Stein.
O Google diz que está ciente de muitas das questões levantadas e trabalha duro para desenvolver tecnologia que as pessoas achem útil. Mas o Google é o desenvolvedor de um serviço multibilionário. No fim das contas, ele construirá as ferramentas que atrairão mais pessoas.
Stein espera que nem tudo dependa do conforto. “A busca por informação se tornou muito importante para nós como sociedade”, diz.