Bill Gates não está muito assustado com a IA
Inteligência artificial

Bill Gates não está muito assustado com a IA

“O melhor motivo para acreditar que podemos gerenciar os riscos é o fato de já termos feito isso antes.”

Bill Gates se juntou ao coro de grandes nomes da tecnologia que opinaram sobre a questão do risco em torno da Inteligência Artificial. O resumo? Ele não está muito preocupado, já passamos por isso antes. 

O otimismo é revigorante depois de inúmeras declarações catastróficas, mas vem acompanhado de poucas ideias novas. 

O magnata dos negócios e filantropo bilionário apresentou seu caso em uma publicação em seu blog pessoal GatesNotes. “Quero reconhecer as preocupações que ouço e leio com mais frequência, muitas das quais compartilho, e explicar como penso sobre elas”, escreveu ele. 

De acordo com Gates, a Inteligência Artificial é “a tecnologia mais transformadora que qualquer um de nós verá em nossas vidas”. Isso a coloca acima da Internet, dos smartphones e dos computadores pessoais, a tecnologia que ele fez mais do que a maioria para trazer ao mundo. (Isso também sugere que nada mais que rivalize com ela será inventado nas próximas décadas). 

Gates foi uma das dezenas de personalidades importantes que assinaram uma declaração publicada pelo Center for AI Safety, com sede em São Francisco, há algumas semanas, que diz, na íntegra: “Mitigar o risco de extinção da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerras nucleares”. 

Mas a postagem no blog não é uma manifestação de medo. De fato, o risco existencial não é mencionado. Em vez disso, Gates enquadra o debate como uma disputa entre riscos de “longo prazo” e “imediatos” e opta por se concentrar nos “riscos que já estão presentes ou que logo vão estar”. 

“Gates bate na mesma tecla há um bom tempo”, diz David Leslie, diretor de pesquisa sobre ética e inovação responsável do Alan Turing Institute, no Reino Unido. Gates foi uma das várias figuras públicas que falaram sobre o risco existencial da IA há uma década, quando a aprendizagem profunda começou a decolar, diz Leslie: “Ele costumava se preocupar mais com a superinteligência naquela época. Parece que isso pode ter se diluído um pouco”. 

Gates não descarta totalmente o risco existencial. Ele se pergunta o que pode acontecer “quando” — e não se — “desenvolvermos uma IA que possa aprender qualquer assunto ou tarefa”, geralmente chamada de Inteligência Artificial geral, ou AGI. 

Ele escreve: “Independentemente de chegarmos a esse ponto em uma década ou em um século, a sociedade precisará lidar com questões profundas. E se uma super IA estabelecer seus próprios objetivos? E se eles entrarem em conflito com os da humanidade? Será que devemos mesmo criar uma super IA? Mas pensar sobre esses riscos de longo prazo não deve ser feito às custas dos riscos mais imediatos.” 

Gates estabeleceu uma espécie de meio-termo entre o pioneiro da aprendizagem profunda Geoffrey Hinton, que saiu do Google e tornou públicos seus temores em relação à IA em maio, e outros como Yann LeCun e Joelle Pineau, da Meta AI (que acham que falar de risco existencial é “absurdamente ridículo” e “desequilibrado”) ou Meredith Whittaker, da Signal (que acha que os temores compartilhados por Hinton e outros são “histórias de fantasmas”). 

É interessante perguntar qual é a contribuição de Gates ao se manifestar agora, diz Leslie: “Com todo mundo falando sobre isso, estamos meio saturados”. 

Assim como Gates, Leslie não descarta totalmente os cenários apocalípticos. “Pessoas mal-intencionadas podem tirar proveito dessas tecnologias e causar danos catastróficos”, diz ele. “Não é preciso acreditar em superinteligência, robôs apocalípticos ou especulações sobre AGI para entender isso.” 

“Mas concordo que nossas preocupações imediatas devem ser abordar os riscos existentes que derivam da rápida comercialização da IA generativa”, diz Leslie. “É um propósito positivo ampliar nossas lentes e dizer: ‘Ok, quais são as preocupações imediatas? 

Em sua publicação, Gates observa que a IA já é uma ameaça em muitas áreas fundamentais da sociedade, desde eleições até educação e emprego. É claro que essas preocupações não são novidade. O que Gates quer nos dizer é que, embora essas ameaças sejam sérias, nós temos isso: “A melhor razão para acreditar que podemos gerenciar os riscos é o fato de já termos feito isso antes.” 

Nas décadas de 70 e 80, as calculadoras mudaram a forma como os alunos aprendiam matemática, permitindo que eles se concentrassem no que Gates chama de “habilidades de raciocínio por trás da aritmética”, em vez da aritmética básica em si. Ele agora vê aplicativos como o ChatGPT fazendo o mesmo com outras disciplinas. 

Em 1980 e 1990, os aplicativos de processamento de texto e planilhas eletrônicas mudaram o trabalho de escritório – mudanças que foram impulsionadas pela própria empresa de Gates, a Microsoft. 

Mais uma vez, Gates analisa como as pessoas se adaptaram e afirma que podemos fazer isso novamente. “Os aplicativos de processamento de texto não acabaram com o trabalho de escritório, mas o mudaram para sempre”, escreve ele. “A mudança causada pela IA será uma transição acidentada, mas há todos os motivos para pensar que podemos reduzir a interrupção da vida e dos meios de subsistência das pessoas.” 

Da mesma forma com a desinformação: aprendemos a lidar com spam, portanto, podemos fazer o mesmo com deepfakes. “Eventualmente, a maioria das pessoas aprendeu a olhar duas vezes para esses e-mails”, escreve Gates. “À medida que os golpes se tornaram mais sofisticados, o mesmo aconteceu com muitos de seus alvos. Precisamos desenvolver o mesmo músculo para as deepfakes.” 

Gates recomenda ações rápidas, mas cautelosas, para tratar de todos os danos em sua lista. O problema é que ele não oferece nada de novo. Muitas de suas sugestões estão batidas; algumas são superficiais. 

Assim como outras pessoas nas últimas semanas, Gates pede a criação de um órgão global para regulamentar a IA, semelhante à Agência Internacional de Energia Atômica. Ele acredita que essa seria uma boa maneira de controlar o desenvolvimento de armas cibernéticas de IA. Mas ele não diz o que essas regulamentações devem restringir ou como devem ser aplicadas. 

Ele diz que os governos e as empresas precisam oferecer apoio, como programas de reciclagem, para garantir que as pessoas não sejam deixadas para trás no mercado de trabalho. Os professores, segundo ele, também devem ser apoiados na transição para um mundo em que aplicativos como o ChatGPT sejam a norma. Mas Gates não especifica como seria esse apoio. 

E ele diz que precisamos melhorar a detecção de deepfakes ou, pelo menos, usar ferramentas que as detectem para nós. Mas a última safra de ferramentas não consegue detectar imagens ou textos gerados por IA suficientemente bem para serem úteis. Com o aprimoramento da IA generativa, será que os detectores conseguirão acompanhá-la? 

Gates tem razão quando diz que “um debate público saudável dependerá do conhecimento de todos sobre a tecnologia, seus benefícios e seus riscos”. Mas ele frequentemente recorre à convicção de que a IA resolverá os problemas da IA – uma convicção que nem todos compartilharão. 

Sim, os riscos imediatos devem ser priorizados. Sim, já passamos (ou passamos por cima) de mudanças tecnológicas antes e podemos fazer isso novamente. Mas como? 

“Uma coisa que ficou clara em tudo o que foi escrito até agora sobre os riscos da IA – e muito foi escrito – é que ninguém tem todas as respostas”, escreve Gates. 

Esse ainda é o caso. 

Último vídeo

Nossos tópicos