Precisamos trazer o conceito de consentimento para o campo da Inteligência Artificial
Inteligência artificial

Precisamos trazer o conceito de consentimento para o campo da Inteligência Artificial

E mais: Geoffrey Hinton nos conta por que agora está com medo da tecnologia que ajudou a construir.

A grande notícia do início de maio é que Geoffrey Hinton, vice-presidente e engenheiro sênior renomado do Google, também conhecido como pioneiro do deep learning responsável pelo desenvolvimento de algumas das técnicas mais importantes para a base da Inteligência Artificial (IA) moderna, renunciou ao cargo dentro da empresa após 10 anos. 

Mas antes de comentarmos o assunto mais detalhadamente, precisamos falar sobre o conceito de consentimento no campo da IA. 

No final de abril, a OpenAI anunciou que estava lançando um modo “anônimo”, o que significa que o ChatGPT não mais salvaria o histórico de conversas com as pessoas e nem o utilizaria para aprimorar o modelo de linguagem de IA. O novo recurso permite a exportação dos dados dos usuários e possibilita que eles desativem o histórico e o treinamento da ferramenta. Esse é um passo encorajador que oferece às pessoas mais controle sobre como seus dados são usados por uma empresa de tecnologia. 

A decisão da OpenAI de permitir que as pessoas tenham autonomia nessa escolha acontece porque a empresa está sob uma pressão crescente das autoridades europeias de proteção de dados sobre como ela usa e coleta dados. A OpenAI tinha até o dia 30 de abril para atender aos pedidos da Itália para cumprir as exigências do Regulamento Geral sobre a Proteção de Dados (GDPR), o rigoroso regime da União Europeia. Posteriormente, a Itália liberou o acesso ao ChatGPT no país depois que a OpenAI implementou um formulário de opt-out para usuários, dando a eles a possibilidade de escolher ou não participar das atividades da ferramenta, além de assegurar uma oportunidade deles se oporem ao uso de seus dados pessoais no ChatGPT. Na ocasião, a autoridade reguladora havia argumentado que a OpenAI roubou dados de informação sensível sem o consentimento das pessoas e não lhes deu nenhuma opção de controle sobre como eles seriam usados. 

Em uma entrevista no final de abril com o jornalista Will Douglas Heaven, a diretora de tecnologia da OpenAI, Mira Murati, disse que o modo anônimo era algo que a empresa vinha “tomando medidas graduais” por alguns meses e que havia sido solicitado por usuários do ChatGPT. A OpenAI disse à Reuters que seus novos recursos de privacidade não estavam relacionados às investigações do GDPR da UE. 

“Queremos colocar os usuários no comando quando se trata de como seus dados são usados”, diz Murati. A OpenAI diz que ainda armazenará os dados do usuário por 30 dias para monitorar uso indevido e condutas abusivas. 

Mas, apesar do que a OpenAI diz, Daniel Leufer, analista sênior de políticas do grupo de direitos digitais Access Now, avalia que o GDPR e a pressão da UE desempenharam um papel importante em forçar a empresa a cumprir a lei melhorando o produto para todos ao redor do mundo durante este processo. 

“Boas práticas de proteção de dados tornam os produtos mais seguros [e] melhores [e] dão aos usuários controle e poder real sobre seus dados”, disse ele no Twitter. 

Muitas pessoas criticam o GDPR alegando que ele é um regulamento que sufoca a inovação. Mas, como aponta Leufer, a lei mostra às empresas como elas podem fazer as coisas melhor quando são obrigadas a fazê-lo. É também a única ferramenta que temos agora que proporciona às pessoas algum controle sobre sua existência digital em um mundo cada vez mais automatizado. 

Outros experimentos focados em conceder aos usuários mais controle nas ferramentas de IA mostram haver uma demanda clara por tais recursos. 

Desde o final do ano passado, pessoas e empresas puderam optar por não ter suas imagens incluídas no conjunto de dados de código aberto LAION usado para treinar o Stable Diffusion, um modelo de IA de geração de imagens. 

Dessa forma, desde dezembro, cerca de 5.000 pessoas e várias grandes plataformas online de arte e imagem, como Art Station e Shutterstock, pediram para remover mais de 80 milhões de imagens do conjunto de dados, diz Mat Dryhurst, cofundador de uma organização chamada Spawning, que está desenvolvendo o recurso de opt-out. Isso significa que essas imagens não serão usadas na próxima versão do Stable Diffusion. 

Dryhurst acha que as pessoas devem ter o direito de saber se seus trabalhos e produções foram ou não usados para treinar modelos de IA e que, além disso, devem poder dizer se desejam fazer parte do sistema, para início de conversa. 

“Nosso objetivo final é construir uma estrutura de consentimento para IA, porque ela simplesmente não existe”, diz ele. 

Aprendizagem mais profunda 

Geoffrey Hinton nos conta por que agora está com medo da tecnologia que ajudou a construir 

Geoffrey Hinton é um pioneiro do deep learning responsável pelo desenvolvimento de algumas das técnicas mais importantes para a base da IA moderna, mas depois de uma década no Google, ele está deixando o cargo para focar em suas novas preocupações causadas pela tecnologia que ele ajudou a criar. O editor sênior de tecnologia da MIT Technology Review americana, Will Douglas Heaven, encontrou Hinton quando ele estava em sua casa, no norte de Londres, apenas quatro dias antes do anúncio bombástico de que ele estava deixando o Google. 

Impressionado com os recursos de novos grandes modelos de linguagem como o GPT-4, Hinton quer aumentar a conscientização pública sobre os sérios riscos que ele agora acredita estarem associados à tecnologia que ele ajudou a desenvolver. 

E, ah, nossa, ele tinha muito a dizer. “Mudei minha opinião do nada sobre se essas inovações serão mesmo mais inteligentes do que nós. Agora, acho que elas estão muito mais próximas disso e serão muito mais inteligentes do que nós no futuro”, disse ele a Will. “Como sobrevivemos a isso?” Saiba mais no artigo de Will Douglas Heaven. 

Um aprendizado ainda mais profundo 

Um chatbot que faz perguntas pode ajudar você a perceber quando algo não faz sentido 

Chatbots de IA como ChatGPT, Bing e Bard geralmente apresentam informações falsas como fatos e possuem uma lógica inconsistente, o que pode ser difícil de detectar. Segundo um novo estudo, uma solução para esse problema é mudar o jeito como a IA apresenta esses dados. 

Uma espécie de Sócrates virtual: uma equipe de pesquisadores do MIT e da Universidade de Columbia, ambas nos EUA, descobriu que induzir um chatbot a fazer perguntas aos usuários, em vez de apenas apresentar-lhes informações como simples declarações, ajudou as pessoas a perceber quando a lógica da IA não fazia sentido. Um sistema capaz de realizar perguntas também faz com que as pessoas se sintam mais responsáveis pelas decisões tomadas com o auxílio da IA, e os pesquisadores dizem que isso pode reduzir o risco de dependência excessiva de informações geradas por IA. Leia mais aqui. 

Bits e bytes 

A empresa Palantir quer que os militares usem modelos de linguagem para travar guerras

A controversa empresa de tecnologia lançou uma nova plataforma que usa modelos de linguagem existentes de código aberto de IA para permitir que os usuários controlem drones e planejem ataques militares. Esta é uma ideia terrível. Os modelos de linguagem de IA frequentemente inventam coisas e são ridiculamente fáceis de hackear. A implantação dessas tecnologias em um dos setores de maior risco é um desastre iminente. (Vice) 

A Hugging Face lançou uma alternativa de código aberto ao ChatGPT

O HuggingChat funciona da mesma forma que o ChatGPT, mas é gratuito tanto para uso quanto para as pessoas criarem seus próprios produtos. Versões de código aberto de modelos populares de IA estão em alta. No início deste mês a Stability.AI, criadora do gerador de imagens Stable Diffusion, também lançou uma versão de código aberto de um chatbot de IA, o StableLM. 

Como surgiu o chatbot Bing da Microsoft e quais são seus próximos passos 

Este é um ótimo panorama dos bastidores do nascimento do Bing. Achei interessante que para gerar respostas, o Bing nem sempre usa o modelo de linguagem GPT-4 da OpenAI e sim modelos da própria Microsoft, que são mais baratos de colocar para funcionar. (Wired) 

A Inteligência Artificial Drake criou uma situação legal complicada e impossível para o Google.

Minhas redes sociais foram inundadas de músicas geradas por IA que imitam os estilos de artistas populares como Drake. Mas, como apontado neste artigo, isso é apenas o início de uma complexa batalha de direitos autorais sobre músicas geradas por IA, coleta de dados da Internet e o que constitui o uso justo. (The Verge) 

Último vídeo

Nossos tópicos