O ano passado foi importante para a chamada Inteligência Artificial generativa, graças ao modelo de conversão de texto em imagem, Stable Diffusion, e o gerador de texto ChatGPT. Foi a primeira vez que muitas pessoas leigas tiveram experiência prática com um sistema de IA.
Apesar de meus melhores esforços para não pensar em IA durante as férias de final de ano, todos que encontrei pareciam querer falar sobre isso. Conheci o primo de um amigo que admitiu ter usado o ChatGPT para escrever um trabalho para a faculdade (e ficou pálido quando soube que eu havia acabado de escrever um artigo sobre como identificar texto gerado por IA). Além dele, pessoas aleatórias em um bar me abordaram e, sem serem solicitadas, começaram a me contar sobre suas experiências com o aplicativo viral Lens; assim como um designer gráfico me contou estar nervoso com os geradores de imagem de IA.
Este ano veremos modelos de IA com mais truques em suas mangas metafóricas. Meu colega Will Douglas Heaven e eu tentamos prever o que provavelmente chegará ao campo da IA em 2023.
Uma das minhas previsões é que veremos o cenário regulatório da IA mudar de diretrizes éticas vagas e gerais para regulamentações mais concretas e alinhadas, à medida que os reguladores da União Europeia (UE) finalizam os últimos detalhes de suas regras para controlar a tecnologia e as agências governamentais dos EUA, como a Comissão Federal de Comércio (FTC, pela sigla em inglês), ponderam as próprias normas.
Os legisladores na Europa estão trabalhando em formas de regulamentar modelos de IA generativos de produção de imagem e texto responsáveis por grande parte da recente empolgação em torno da IA, como Stable Diffusion, LaMDA e ChatGPT. Essas legislações podem significar o fim de uma era para as empresas que liberam seus modelos de IA para o público com pouca ou nenhuma proteção, ou responsabilidade.
Esses modelos servem cada vez mais como a espinha dorsal de muitos aplicativos de IA, mas as empresas que os fabricam são extremamente reservadas quanto a como eles são construídos e treinados. Não sabemos muito sobre como eles funcionam, e isso dificulta entender como os modelos geram conteúdo nocivo ou chegam a resultados tendenciosos, ou como mitigar esses problemas.
A UE está planejando atualizar sua regulamentação abrangente de IA, a Lei da IA, com regras que obrigam essas empresas a informarem como esses modelos de IA funcionam internamente. É bem provável que ela seja aprovada na segunda metade do ano e, depois disso, as empresas terão que cumprir o que está escrito se quiserem vender ou usar produtos de IA na UE. Caso contrário, terão que enfrentar multas de até 6% de seu faturamento anual mundial total.
A UE chama esses modelos generativos de sistemas de “IA de propósito geral”, porque eles podem ser usados para muitas coisas diferentes (não confundir com Inteligência Geral Artificial, a ideia muito comentada de superinteligência de IA). Por exemplo, grandes modelos de linguagem, como GPT-3, podem ser usados tanto em chatbots de atendimento ao cliente quanto para criar desinformação em grande escala, e o Stable Diffusion pode ser usado para criar imagens para cartões comemorativos ou pornografia deepfake não consensual.
Embora a maneira exata pela qual esses modelos serão regulamentados na Lei da IA ainda seja tópico para debates acirrados, os criadores de modelos de IA de uso geral, como a OpenAI, Google e DeepMind, provavelmente precisarão ser mais transparentes e abertos quanto a como seus modelos são construídos e treinados, diz Dragoș Tudorache, um membro liberal do Parlamento Europeu que faz parte da equipe de negociação da Lei da IA.
Segundo Alex Engler, pesquisador de governança de IA da Brookings Institution, regulamentar essas tecnologias é complicado, porque existem dois conjuntos diferentes de problemas associados a modelos generativos envolvendo soluções políticas muito diferentes. Uma é a disseminação de conteúdo prejudicial gerado por IA, como discurso de ódio e pornografia não consensual, e a outra é a geração de resultados tendenciosos quando as empresas integram esses modelos de IA em processos seletivos ou os usam para revisar documentos legais.
Compartilhar mais informações sobre os modelos pode ajudar aqueles que estão construindo produtos com base neles. Mas quando se trata da disseminação de conteúdo prejudicial gerado por IA, são necessárias regras mais rigorosas. Engler sugere que os criadores de modelos generativos devem ser obrigados a criar restrições sobre o que os modelos produzirão, monitorar seus resultados e banir usuários que abusam da tecnologia. Mas mesmo isso não impedirá necessariamente que uma pessoa possar espalhar coisas tóxicas por aí.
Embora as empresas de tecnologia tradicionalmente relutem em revelar seu ingrediente secreto, a atual pressão dos reguladores por mais transparência e responsabilidade corporativa pode inaugurar uma era em que o desenvolvimento da IA é menos explorador e feito de maneira a respeitar direitos como a privacidade. Isso me dá esperança para este ano.
Um aprendizado ainda mais profundo
A IA generativa está mudando tudo. Mas o que restará quando o entusiasmo passar?
Todos os anos, os repórteres e editores da MIT Technology Review americana selecionam 10 tecnologias inovadoras que provavelmente moldarão o futuro. E é com isso que a IA generativa, um dos assuntos mais falados no momento, é uma das escolhas deste ano. (Mas você pode e deve ler sobre as outras nove tecnologias.)
O que está acontecendo: os modelos de IA de conversão de texto em imagem, como o DALL-E da OpenAI, conquistaram o mundo. Sua popularidade surpreendeu até mesmo seus próprios criadores. E embora tenhamos que esperar para ver exatamente qual será o impacto duradouro que essas ferramentas terão nas indústrias criativas e em todo o campo da IA, está claro que isso é apenas o começo.
O que vem por aí: 2023 provavelmente nos apresentará modelos de IA que podem fazer muitas coisas diferentes, desde gerar imagens de texto em vários idiomas até controlar robôs. A IA generativa poderia ser eventualmente usada para produzir projetos para tudo, desde novos edifícios até novos medicamentos. “Acho que esse é o legado”, disse Sam Altman, fundador da OpenAI, a Will Douglas Heaven. “Imagens, vídeo, áudio. Um dia, tudo será gerado por IA. Acho que ela vai se infiltrar em todos os lugares.” Leia ao artigo de Will.