Por que é impossível criar um modelo de linguagem de IA imparcial?
Inteligência artificial

Por que é impossível criar um modelo de linguagem de IA imparcial?

E mais: a Worldcoin acaba de ser lançada oficialmente. Por que ela já está sendo investigada?

Os modelos de linguagem de IA se tornaram a mais recente fronteira nas guerras culturais dos EUA. Os membros da direita acusaram o ChatGPT de ter um “viés de esquerda”, e grupos conservadores começaram a desenvolver suas próprias versões de chatbots de IA. Enquanto isso, Elon Musk disse que está trabalhando no “TruthGPT”, um modelo de linguagem de “busca da verdade máxima” que contrastaria com os chatbots “politicamente corretos” criados pela OpenAI e pelo Google.  

Um chatbot de IA imparcial e puramente baseado em fatos é uma ideia interessante, mas é tecnicamente impossível. (Musk ainda não compartilhou nenhum detalhe sobre o que seu TruthGPT implicaria, provavelmente porque ele está muito ocupado pensando em X e em “brigas de gaiola” com Mark Zuckerberg). Para entender o motivo, vale a pena ler um artigo sobre uma nova pesquisa que esclarece como o viés político se infiltra nos sistemas de linguagem de IA. Os pesquisadores realizaram testes em 14 grandes modelos de linguagem e descobriram que o ChatGPT e o GPT-4 da OpenAI eram os mais libertários de esquerda, enquanto o LLaMA da Meta era o mais autoritário de direita. 

“Acreditamos que nenhum modelo de linguagem pode ser totalmente livre de vieses políticos”, disse-me Chan Park, pesquisador PhD da Carnegie Mellon University, que participou do estudo. Leia mais aqui. 

Um dos mitos mais difundidos sobre a IA é que a tecnologia é neutra e imparcial. Essa é uma narrativa perigosa e só vai agravar o problema da tendência dos seres humanos de confiar nos computadores, mesmo quando eles estão errados. Na verdade, os modelos de linguagem de IA refletem não apenas os preconceitos em seus dados de treinamento, mas também os preconceitos das pessoas que os criaram e os treinaram.  

E, embora seja bem conhecido que os dados que entram no treinamento dos modelos de IA são uma grande fonte desses preconceitos, “a pesquisa mostra como o preconceito se infiltra em praticamente todos os estágios do desenvolvimento do modelo”, diz Soroush Vosoughi, professor assistente de ciência da computação no Dartmouth College, que não participou do estudo. 

O viés nos modelos de linguagem de IA é um problema particularmente difícil de corrigir, porque não entendemos realmente como eles geram as coisas que fazem, e nossos processos para atenuar o viés não são perfeitos. Isso, por sua vez, se deve em parte ao fato de que os vieses são problemas sociais complicados que não têm uma solução técnica fácil.  

É por isso que a honestidade é a melhor política. Pesquisas como essa poderiam incentivar as empresas a rastrearem e mapearem os vieses políticos em seus modelos e ser mais francas com seus clientes. Elas poderiam, por exemplo, declarar explicitamente os vieses conhecidos para que os usuários possam considerar os resultados dos modelos com cautela. 

Nesse sentido, no início deste ano, a OpenAI disse que está desenvolvendo chatbots personalizados capazes de representar diferentes políticas e visões de mundo. Uma abordagem seria permitir que as pessoas personalizassem seus chatbots de IA. Esse é o foco da pesquisa de Vosoughi.  

Conforme descrito em um artigo revisado por pares, Vosoughi e seus colegas criaram um método semelhante a um algoritmo de recomendação do YouTube, mas para modelos generativos. Eles usam o aprendizado por reforços para orientar os resultados de um modelo de linguagem de IA de modo a gerar determinadas ideologias políticas ou remover discursos de ódio.  

A OpenAI usa uma técnica chamada aprendizado por reforço por meio de feedback humano para ajustar seus modelos de IA antes de serem lançados. O método de Vosoughi também usa o aprendizado por reforço para aprimorar o conteúdo gerado pelo modelo depois que ele é lançado. 

Mas em um mundo cada vez mais polarizado, esse nível de personalização pode levar a resultados bons e ruins. Embora possa ser usado para eliminar informações desagradáveis ou errôneas de um modelo de IA, ele também pode ser usado para gerar mais informações errôneas.  

“É uma faca de dois gumes”, admite Vosoughi. 

Aprendizado aprofundado 

A Worldcoin acaba de ser lançada oficialmente. Por que ela já está sendo investigada? 

O novo empreendimento do CEO da OpenAI, Sam Altman, Worldcoin, tem como objetivo criar um sistema de identidade global chamado “World ID”, que se baseia nos dados biométricos exclusivos dos indivíduos para provar que eles são humanos. Ele foi lançado oficialmente na semana passada em mais de 20 países. Já está sendo investigado em vários deles.  

Pesadelo da privacidade: para entender o motivo, vale a pena ler uma investigação da MIT Technology Review do ano passado, que descobriu que a Worldcoin estava coletando dados biométricos confidenciais de pessoas vulneráveis em troca de dinheiro. Além disso, a empresa estava usando os dados confidenciais dos usuários de teste, embora anônimos, para treinar modelos de Inteligência Artificial, sem o conhecimento deles.  

Bits e Bytes 

Este é o primeiro caso conhecido de uma mulher que foi presa injustamente após um reconhecimento facial 

Em fevereiro passado, Porcha Woodruff, que estava grávida de oito meses, foi presa por suposto roubo e furto de carro e mantida sob custódia por 11 horas, mas seu caso foi arquivado um mês depois. Ela é a sexta pessoa a relatar que foi falsamente acusada de um crime devido a uma falha no reconhecimento facial. Todas as seis pessoas eram negras, e Woodruff é a primeira mulher a relatar que isso aconteceu com ela. (The New York Times 

O que você pode fazer quando um sistema de IA mente sobre você? 

No verão passado, houve uma matéria sobre como nossos dados pessoais estão sendo reunidos em vastos conjuntos de dados para treinar modelos de linguagem de IA. Isso não é apenas um pesadelo para a privacidade, mas também pode causar danos à reputação. Ao fazer a reportagem, foi descoberto que o chatbot BlenderBot experimental da Meta havia chamado uma importante política holandesa, Marietje Schaake, de terrorista. E, como explica este artigo, no momento há pouca proteção ou recurso quando os chatbots de IA proferem e espalham mentiras sobre você. (The New York Times) 

Atualmente, toda startup é uma empresa de IA. Estamos em uma bolha?  

Após o lançamento do ChatGPT, o hype da IA este ano tem sido intenso. Ao que parece, todos os irmãos da tecnologia e seus tios parecem ter fundado uma startup de IA. Mas nove meses após o lançamento do chatbot, ainda não está claro como essas startups e a tecnologia de IA ganharão dinheiro, e há relatos de que os consumidores estão começando a perder o interesse. (The Washington Post 

A Meta está criando chatbots com personas para tentar reter usuários 

Sinceramente, isso parece mais irritante do que qualquer outra coisa. Segundo informações, a Meta está se preparando para lançar chatbots alimentados por IA com diferentes personalidades, em uma tentativa de aumentar o engajamento e coletar mais dados sobre as pessoas que usam suas plataformas. Os usuários poderão conversar com Abraham Lincoln ou pedir conselhos de viagem a chatbots com IA que escrevem como um surfista. Mas isso levanta questões éticas complicadas – como a Meta evitará que seus chatbots manipulem o comportamento das pessoas e, potencialmente, inventem algo prejudicial, e como ela tratará os dados de usuários que coletar? (The Financial Times) 

Último vídeo

Nossos tópicos