Quatro tendências que mudaram a IA em 2023
Inteligência artificial

Quatro tendências que mudaram a IA em 2023

Lançamentos intermináveis de produtos, golpes em salas de reuniões, intensos debates sobre políticas e uma corrida para encontrar a próxima grande novidade — foi um ano agitado.

2023 foi um dos anos mais loucos no setor de IA em muito tempo: lançamentos intermináveis de produtos, golpes em salas de reuniões, intensos debates políticos sobre a destruição da Inteligência Artificial e uma corrida para encontrar a próxima grande novidade. Mas também vimos ferramentas e políticas concretas com o objetivo de fazer com que o setor de IA se comporte de forma mais responsável e responsabilize os participantes poderosos. Isso me dá muita esperança para o futuro da IA. 

Aqui está o que 2023 me ensinou:  

  1. A IA generativa saiu do laboratório com força total, mas não está claro para onde ela vai em seguida

O ano passado começou com as Big Techs apostando tudo na IA generativa. O sucesso estrondoso do ChatGPT da OpenAI fez com que todas as grandes empresas de tecnologia lançassem sua própria versão. 2023 pode entrar para a história como o ano em que vimos o maior número de lançamentos de IA: o LLaMA 2 da Meta, o Bard e o Gemini do Google, o Ernie Bot da Baidu, o GPT-4 da OpenAI e vários outros modelos, inclusive um de um desafiante francês de código aberto, o Mistral. 

Mas, apesar do entusiasmo inicial, não vimos nenhum aplicativo de IA se tornar um sucesso da noite para o dia. A Microsoft e o Google lançaram uma poderosa pesquisa com IA, mas ela acabou sendo mais um fracasso do que um aplicativo matador. As falhas fundamentais dos modelos de linguagem, como o fato de que eles frequentemente inventam coisas, levaram a algumas gafes embaraçosas (e, sejamos honestos, hilárias). O Bing da Microsoft frequentemente respondia às perguntas das pessoas com teorias da conspiração e sugeriu que um repórter do New York Times deixasse sua esposa. O Bard, do Google, gerava respostas factualmente incorretas para sua campanha de marketing, o que reduziu em US$ 100 bilhões o preço das ações da empresa. 

Atualmente, há uma busca frenética por um produto popular de IA que todos queiram adotar. Tanto a OpenAI quanto o Google estão experimentando permitir que empresas e desenvolvedores criem chatbots de IA personalizados e que as pessoas criem seus próprios aplicativos usando IA, sem a necessidade de habilidades de codificação. Talvez a IA generativa acabe sendo incorporada em ferramentas chatas, mas úteis, para nos ajudar a aumentar nossa produtividade no trabalho. Ela pode assumir a forma de assistentes de IA – talvez com recursos de voz – e suporte de codificação. Este ano será crucial para determinar o valor real da IA generativa. 

  1. Aprendemos muito sobre como os modelos de linguagem realmente funcionam, mas ainda sabemos muito pouco

Embora as empresas de tecnologia estejam implementando grandes modelos de linguagem em produtos em um ritmo frenético, ainda há muito que não sabemos sobre como eles funcionam. Eles inventam coisas e têm sérios preconceitos de gênero e etnia. Em 2023 também descobrimos que diferentes modelos de linguagem geram textos com diferentes vieses políticos e que são ótimas ferramentas para hackear as informações privadas das pessoas. Os modelos de texto para imagem podem ser solicitados a gerar imagens protegidas por direitos autorais e fotos de pessoas reais, e podem ser facilmente enganados para gerar imagens perturbadoras. Tem sido ótimo ver tantas pesquisas sobre as falhas desses modelos, pois isso pode nos levar um passo mais perto de entender por que eles se comportam da maneira que fazem e, por fim, corrigi-los. 

Os modelos generativos podem ser muito imprevisíveis e, neste ano, houve muitas tentativas de fazer com que eles se comportem como seus criadores desejam. A OpenAI compartilhou que usa uma técnica chamada aprendizado por reforço a partir do feedback humano, que usa o feedback dos usuários para ajudar a orientar o ChatGPT para respostas mais desejáveis. Um estudo do laboratório de IA Anthropic mostrou como instruções simples de linguagem natural podem orientar grandes modelos de linguagem para tornar seus resultados menos tóxicos. Mas, infelizmente, muitas dessas tentativas acabam sendo soluções rápidas em vez de permanentes. Há também abordagens equivocadas, como banir palavras aparentemente inócuas, como “placenta“, dos sistemas de IA geradores de imagens para evitar a produção de sangue. As empresas de tecnologia criam soluções alternativas como essas porque não sabem por que os modelos geram o conteúdo que geram. 

Também tivemos uma noção melhor da verdadeira pegada de carbono da IA. Os pesquisadores da startup de IA Hugging Face e da Universidade Carnegie Mellon descobriram que gerar uma imagem usando um modelo avançado de IA consome tanta energia quanto carregar totalmente seu smartphone. Até agora, a quantidade exata de energia que a IA generativa usa era uma peça que faltava no quebra-cabeça. Mais pesquisas sobre isso poderiam nos ajudar a mudar a forma como usamos a IA para sermos mais sustentáveis. 

  1. O apocalipse da IA se tornou popular

As conversas sobre a possibilidade de a IA representar um risco existencial para os seres humanos se tornaram familiares ano passado. Centenas de cientistas, líderes empresariais e formuladores de políticas se manifestaram, desde os pioneiros da aprendizagem profunda Geoffrey Hinton e Yoshua Bengio até os CEOs das principais empresas de IA, como Sam Altman e Demis Hassabis, o congressista da Califórnia Ted Lieu e o ex-presidente da Estônia Kersti Kaljulaid. 

O risco existencial se tornou um dos maiores memes da IA. A hipótese é que um dia construiremos uma IA muito mais inteligente do que os seres humanos, e isso poderia levar a graves consequências. É uma ideologia defendida por muitos no Vale do Silício, inclusive por Ilya Sutskever, cientista-chefe da OpenAI, que desempenhou um papel fundamental na destituição do CEO da OpenAI, Sam Altman (e sua reintegração alguns dias depois).  

Mas nem todos concordam com essa ideia. Os líderes de IA da Meta, Yann LeCun e Joelle Pineau, disseram que esses temores são “ridículos” e que a conversa sobre os riscos da IA se tornou “desequilibrada”. Muitos outros atores importantes da IA, como o pesquisador Joy Buolamwini, afirmam que o foco em riscos hipotéticos desvia a atenção dos danos reais que a IA está causando atualmente. 

No entanto, o aumento da atenção sobre o potencial da tecnologia de causar danos extremos gerou muitas conversas importantes sobre a política de IA e incentivou os legisladores de todo o mundo a agir. 

  1. Os dias do Velho Oeste da IA acabaram

Graças ao ChatGPT, todos, desde o Senado dos EUA até o G7, estavam falando sobre políticas e regulamentações de IA no ano passado. No início de dezembro, os legisladores europeus encerraram um ano de política movimentada quando concordaram com a IA Act, que introduzirá regras e padrões vinculativos sobre como desenvolver a IA mais arriscada de forma mais responsável. Ela também proibirá determinadas aplicações “inaceitáveis” de IA, como o uso do reconhecimento facial pela polícia em locais públicos. 

A Casa Branca, por sua vez, apresentou uma ordem executiva sobre IA, além de compromissos voluntários das principais empresas de Inteligência Artificial. Seus esforços visaram trazer mais transparência e padrões para a IA e deram muita liberdade às agências para adaptar as regras de acordo com seus setores.  

Uma proposta de política concreta que recebeu muita atenção foram as marcas d’água — sinais invisíveis em textos e imagens que podem ser detectados por computadores, a fim de sinalizar o conteúdo gerado por IA. Essas marcas podem ser usadas para rastrear plágio ou ajudar a combater a desinformação, e vimos pesquisas que conseguiram aplicá-las a textos e imagens gerados por IA. 

Não foram apenas os legisladores que estiveram ocupados, mas também os advogados. Vimos um número recorde de ações judiciais, pois artistas e escritores argumentaram que as empresas de IA haviam extraído sua propriedade intelectual sem seu consentimento e sem compensação. Em uma contraofensiva empolgante, pesquisadores da Universidade de Chicago desenvolveram o Nightshade, uma nova ferramenta de envenenamento de dados que permite que os artistas lutem contra a IA generativa, bagunçando os dados de treinamento de forma que possam causar sérios danos aos modelos de IA geradores de imagens. Há uma resistência se formando, e espero mais esforços de base para mudar o equilíbrio de poder da tecnologia no ano que está começando. 

Último vídeo

Nossos tópicos