Tenho pensado muito sobre o trabalho humano por trás de modelos sofisticados de Inteligência Artificial (IA).
O segredo para fazer os chatbots de IA parecerem inteligentes e disseminarem menos ideias tóxicas e sem sentido é usar uma técnica chamada reinforcement learning a partir do feedback humano (RLHF), que permite que as pessoas classifiquem as informações resultantes para melhorar as respostas do modelo.
Esses chatbots contam com um pequeno exército de especialistas humanos em anotação de dados que avaliam se uma sequência de texto faz sentido e soa fluente e natural. Essas pessoas decidem se uma resposta deve ser mantida no banco de dados do modelo de IA ou se deve ser removida.
Mesmo os chatbots de IA mais impressionantes exigem milhares de horas de trabalho humano para se comportar da maneira que seus criadores desejam, e mesmo assim eles ainda correm o risco de não serem confiáveis. O trabalho pode ser intenso e perturbador, como relatado durante a realização da ACM Conference on Fairness, Accountability, and Transparency (FAccT). Esta é uma conferência que reúne pesquisas sobre assuntos sobre os quais gosto de escrever, como tornar os sistemas de IA mais responsáveis e éticos.
Um painel que estava ansiosa para assistir é com Timnit Gebru, pioneira no campo de ética em IA, que costumava liderar esse departamento do Google antes de ser demitida. O tema de sua palestra era sobre como os trabalhadores de dados na Etiópia, Eritreia e Quênia são explorados para limpar os traços online de ódio e a desinformação. Os anotadores de dados no Quênia, por exemplo, recebiam menos de US$ 2 por hora para filtrar grandes volumes de conteúdo perturbador sobre violência e abuso sexual, a fim de tornar o ChatGPT menos tóxico. Esses trabalhadores agora estão se sindicalizando para obter melhores condições de trabalho.
No ano passado, uma série de reportagens da MIT Technology Review americana explorou como a IA está criando uma nova ordem mundial colonial, botando um fardo sobre os trabalhadores de dados. Colocar em evidência as práticas de trabalho exploradoras em torno da IA tornou-se ainda mais urgente e importante com o surgimento de chatbots populares de IA, como ChatGPT, Bing e Bard, e IAs geradoras de imagens, como DALL-E 2 e Stable Diffusion.
Os anotadores de dados estão envolvidos em todas as etapas do desenvolvimento da IA, desde o treinamento de modelos até a verificação de seus resultados, fornecendo feedback que possibilita o aperfeiçoamento de um modelo depois que ele foi lançado. Muitas vezes, eles são forçados a trabalhar em um ritmo surpreendentemente rápido para cumprir metas exigentes e desafiadoras, além de prazos apertados, diz Srravya Chandhiramowuli, pesquisadora de doutorado que estuda práticas trabalhistas em análise de dados na City, Universidade de Londres.
“A ideia de que você pode construir esses sistemas em larga escala sem intervenção humana é totalmente falsa”, diz Chandhiramowuli.
Os anotadores de dados fornecem aos modelos de IA um contexto importante de que eles precisam para parecem sofisticados e tomar decisões em grande escala.
Chandhiramowuli me contou sobre um caso em que um anotador de dados na Índia teve que diferenciar imagens de garrafas de refrigerante e escolher aquelas que se parecessem com a Dr. Pepper. Mas não vendem Dr. Pepper na Índia, e a responsabilidade era do anotador de dados descobrir isso.
A expectativa é que os anotadores descubram os valores que são importantes para a empresa, diz Chandhiramowuli. “Eles não estão apenas aprendendo coisas distantes e sem sentido para eles, mas, além disso, também estão descobrindo quais são esses outros contextos e quais são as prioridades do sistema que estão construindo”, diz ela.
Na verdade, somos todos trabalhadores de dados para grandes empresas de tecnologia, estejamos cientes disso ou não, argumentam pesquisadores da Universidade da Califórnia, nas cidades de Berkeley e Davis, da Universidade de Minnesota e da Universidade Northwestern (todas nos EUA) em um novo artigo apresentado na FAccT.
Os modelos de IA de texto e imagem são treinados usando enormes conjuntos de dados que foram extraídos da Internet. Isso inclui nossos dados pessoais e obras autorais de artistas, e os dados que criamos agora para sempre fazem parte de um modelo de IA criado para gerar dinheiro para uma empresa. Contribuímos involuntariamente com nosso trabalho de forma gratuita, fazendo upload de nossas fotos em sites públicos, votando em comentários no Reddit, identificando imagens no reCAPTCHA ou realizando pesquisas online.
No momento, há uma grande disparidade de poder em favor de algumas das maiores empresas de tecnologia do mundo.
Para mudar isso, precisamos de nada menos que uma revolução e regulamentação de dados. Os pesquisadores argumentam que uma maneira de as pessoas retomarem o controle de sua existência online é defendendo a transparência sobre como os dados são usados e encontrando maneiras de garantir que elas tenham o direito de oferecer feedback e receber uma compensação financeira por esse uso.
Apesar de ser a base da IA moderna, o trabalho de dados continua sendo subestimado e pouco reconhecido globalmente, e os salários dos anotadores permanecem baixos.
“Não há absolutamente nenhuma valorização da contribuição do trabalho de dados”, diz Chandhiramowuli.
Aprendizado mais profundo
O futuro da IA generativa e dos negócios
No dia 14 realizamos o EmTech Next, onde contamos com a presença de uma seleção de especialistas renomados para analisar como a revolução da IA mudará os negócios. O evento também contou com a participação do editor sênior de IA da MIT Technology Review americana, Will Douglas Heaven.
E eu também tive a oportunidade de palestrar sobre assuntos relacionados a IA na segurança cibernética, a importância dos dados e as novas regulamentações de que precisamos para a IA.
Para instigar a sua curiosidade, o repórter David Rotman se aprofundou no universo da IA generativa e em como ela vai mudar a economia. Leia aqui.
Aprendizado ainda mais profundo
A Google DeepMind acaba de encontrar outra maneira de tornar mais rápido seu código de Inteligência Artificial (IA) para jogos
O AlphaDev é uma nova versão do AlphaZero, um jogo de IA, que está sendo usado pela empresa com sede no Reino Unido (recentemente renomeada como Google DeepMind após uma fusão com o laboratório de IA de sua empresa parceira em abril) e que descobriu uma maneira de organizar itens em uma lista até 70% mais rápido do que o método existente considerado o melhor. Além disso, a empresa também encontrou uma maneira de acelerar em 30% um algoritmo fundamental usado na criptografia.
Porque isso é importante: à medida que os chips de computador que impulsionam os modelos de IA estão chegando em seus limites físicos, os cientistas da computação precisam encontrar novas maneiras criativas de otimizar o processamento. Esses algoritmos são componentes fundamentais do software e até pequenos aprimoramentos de velocidade podem gerar grandes benefícios, reduzindo custos e economizando energia. Leia mais aqui.
Bits e bytes
A campanha de Ron DeSantis usa imagens geradas por IA de Donald Trump e Anthony Fauci
A eleição presidencial dos EUA promete ser confusa. Um exemplo disso é a campanha de apoio a Ron DeSantis como candidato presidencial republicano para 2024, que usou uma deepfake gerado por IA para atacar o rival, Donald Trump. A imagem mostra Trump beijando Anthony Fauci, ex-conselheiro médico-chefe da Casa Branca, detestado por muitos da direita. (AFP)
Os seres humanos são tendenciosos, mas a IA generativa é pior
Esta reportagem visual mostra como o modelo de texto para imagem de código aberto Stable Diffusion reforça e exacerba os estereótipos sobre raça e gênero. O artigo é uma visualização impressionante da pesquisa que demonstra que o modelo de IA apresenta uma visão de mundo mais tendenciosa do que a realidade. Por exemplo, apenas 3% das imagens geradas para a palavra-chave “juiz” representavam mulheres, enquanto na realidade 34% dos juízes dos EUA são mulheres. (Bloomberg)
Meta está usando a IA generativa em tudo
Depois de um ano difícil de demissões, o CEO da Meta, Mark Zuckerberg, disse à equipe que a empresa pretende integrar IA generativa em seus principais produtos, como Facebook e Instagram. As pessoas poderão, por exemplo, usar prompts de texto para editar fotos e compartilhá-las no Instagram Stories. Além disso, a empresa também está desenvolvendo assistentes virtuais ou mentores baseados em IA com os quais as pessoas podem interagir. (The New York Times)
Um exemplo satisfatório de IA generativa
Observe alguém consertando coisas usando IA generativa em um software de edição de fotos.