O Google está colocando IA generativa em tudo
Inteligência artificial

O Google está colocando IA generativa em tudo

Mas especialistas afirmam que lançar esses modelos sem antes corrigir suas falhas pode ser extremamente arriscado para a empresa.

O Google está enchendo seus produtos de novas e poderosas ferramentas de Inteligência Artificial. Além disso, vem fazendo uma série de lançamentos, incluindo o de um assistente de programação, anunciado no último mês de maio, durante a Google I/O, conferência anual da empresa. 

Lançado recentemente, o PaLM 2, novo modelo de linguagem de IA do Google, é compatível com mais de 25 produtos, como o Google Maps, o Google Docs, o Gmail, o Google Sheets e o chatbot da empresa, Bard. Em breve, será possível, por exemplo, digitar o comando “escreva uma descrição de cargo” em uma caixa de texto no Docs e a IA irá gerar um template que pode ser adaptado pelo usuário. 

Em função de riscos de segurança e a sua reputação, o Google demorou mais do que alguns de seus concorrentes para lançar produtos envolvendo Inteligência Artificial. Mas diante da acirrada competição com empresas como Microsoft, OpenAI e outras, não houve saída, diz Chirag Shah, professora de ciência da computação na Universidade de Washington.  

É uma estratégia de alto risco, dado que modelos de linguagem de IA apresentam inúmeras falhas para as quais ainda não existe conserto. Incorporá-los a produtos pode acabar sendo um tiro pela culatra, gerando conflitos com órgãos reguladores cada vez mais vigilantes, alertam especialistas. 

O Google também está ampliando o acesso ao Bard. O concorrente do ChatGPT, que antes estava restrito a um seleto grupo de pessoas nos EUA e no Reino Unido, agora está disponível ao público geral em mais de 180 países. Recentemente, a empresa anunciou que o Bard passaria admitir não apenas comandos com palavras, mas também com imagens, e seria capaz de responder a perguntas com fotos. Foi anunciado, ainda, o lançamento de ferramentas de IA que permitem gerar e depurar códigos. 

O Google vem utilizando IA em seus produtos há anos para funções como tradução de texto e reconhecimento de fala. Mas essa movimentação da empresa é a maior até o momento no sentido de integrar a onda mais recente de tecnologia em inteligência artificial a uma variedade de produtos. 

“As capacidades [dos modelos de linguagem de Inteligência Artificial] estão aumentando. Estamos descobrindo cada vez mais lugares onde podemos integrá-los a nossos produtos, e estamos também encontrando oportunidades reais de gerar valor de maneira ousada, mas responsável”, disse Zoubin Ghahramani, vice-presidente da Google DeepMind, à MIT Technology Review americana.  

“Esse momento, para o Google, é realmente um momento no qual estamos vendo o poder de colocar inteligência artificial nas mãos das pessoas”, diz ele. 

Esperamos, afirma Ghahramani, que as pessoas se acostumem tanto a essas ferramentas que elas se tornem uma parte comum do dia a dia.  

 

One stop shop 

Esses anúncios do Google vieram em um momento no qual rivais como Microsoft, OpenAI, Meta e grupos de código aberto com a Stability.AI competem para lançar ferramentas de inteligência artificial impressionantes, que podem resumir textos, responder fluentemente a perguntas e até produzir imagens e vídeos a partir de comandos por palavras. 

Com essa nova leva de produtos e ferramentas baseados em inteligência artificial, o Google pretende alcançar não apenas indivíduos, como startups, desenvolvedores e empresas que estejam dispostos a pagar por acesso a modelos, assistência em codificação e software corporativo, diz Shah. 

“É muito importante para o Google ser uma one stop shop”, diz ele.  

O Google está disponibilizando novas ferramentas e modelos que utilizam sua Inteligência Artificial generativa como assistente de programação, permitindo a usuários gerar e completar códigos, além de conversar com um chatbot capaz ajudar com depuração e outras questões de programação.  

O problema é que esses grandes modelos de linguagem que o Google vem incorporando a seus produtos tendem a inventar coisas. O próprio Google passou por isso durante a divulgação do Bard para testes nos EUA e no Reino Unido. Já no anúncio, o bot cometeu um erro. Esse constrangimento causou um impacto de bilhões no preço das ações da empresa.  

O Google está enfrentando um conflito entre lançar novos produtos interessantes baseados em inteligência artificial e realizar pesquisas científicas que tornem sua tecnologia replicável e permitam a pesquisadores externos auditá-la e realizar testes de segurança, diz Sasha Luccioni, pesquisadora de inteligência artificial da startup Hugging Face.  

No passado, o Google adotava uma postura mais aberta, utilizando modelos de linguagem de código aberto, como o BERT, em 2018. “Mas, por conta da pressão do mercado e da OpenAI, estão mudando tudo isso”, afirma Luccioni. 

Em se tratando de geração de códigos, o risco é de que os usuários não sejam suficientemente habilidosos em programação para perceber erros introduzidos pela Inteligência Artificial, diz Luccioni. Isso pode levar a códigos problemáticos e softwares defeituosos. Existe, ainda, o perigo de que as coisas deem errado quando modelos de Inteligência Artificial começam a dar conselhos sobre o mundo real, acrescenta. 

Even Ghahramani alerta que as empresas devem ser cuidadosas ao escolher no que usar essas ferramentas e insiste que os resultados devem ser verificados cuidadosamente, não sendo possível confiar cegamente neles.  

“Esses modelos são muito poderosos. Se geram coisas defeituosas, então, ao lidar com software, devemos nos preocupar quando apenas pegamos o que foi gerado e incorporamos a nossos sistemas críticos”, diz ele.  

Mas existem riscos associados à modelos de linguagem de IA que mesmo as pessoas mais atualizadas e experientes em tecnologia mal começaram a compreender. É difícil identificar quando textos e, principalmente, imagens são gerados por uma inteligência artificial, o que possibilita o uso dessas ferramentas para desinformação e golpes em larga escala. 

Esses modelos podem ser facilmente enganados para violar suas próprias políticas, que proíbem, por exemplo, ensinar alguém a fazer algo ilegal. Eles também ficam vulneráveis a ataques de hackers quando integrados a produtos com acesso à internet, e não temos uma solução para esse problema.  

Ghahramani diz que o Google faz testes regulares para aprimorar a segurança de seus modelos e tem controles embutidos que impedem a geração de conteúdo tóxico. No entanto, admite que a empresa ainda não resolveu essa vulnerabilidade – nem o problema das “alucinações”, situações em que chatbots geram respostas absurdas.  

Um começo difícil 

Colocar todas as fichas em IA generativa pode ser uma aposta ruim para o Google. Empresas de tecnologia estão enfrentando um intenso escrutínio regulatório em relação a seus produtos de IA. A União Europeia está finalizando seu primeiro regulamento sobre o tema, a Lei de Inteligência Artificial, e a Casa Branca recentemente convocou os líderes do Google, da Microsoft e da OpenAI para discutir a necessidade de desenvolver inteligência artificial de forma responsável. Agências reguladoras norte-americanas, como a Federal Trade Commission (Comissão Federal de Comércio), já sinalizaram que estão atentas aos danos que inteligências artificiais podem causar. 

Shah diz que, se alguns desses medos relacionados a inteligências artificiais se mostrarem fundados, isso poderia dar a órgãos reguladores e legisladores motivos para atuar duramente de modo a responsabilizar o Google.  

Mas em sua luta para manter o controle sobre o mercado de softwares corporativos, o Google entende que não pode arriscar perder para seus rivais, acredita Shah. “Essa é a guerra que eles criaram”, diz ele. No momento, “quase nada pode detê-los”. 

Último vídeo

Nossos tópicos