Nós não estamos preparados para o fim da lei de Moore
Computação

Nós não estamos preparados para o fim da lei de Moore

Ela alimentou a prosperidade dos últimos 50 anos. Mas o fim está agora à vista.

A previsão de Gordon Moore de 1965 de que o número de componentes em um circuito integrado dobraria todos os anos até atingir 65.000 em 1975, é a maior previsão tecnológica do último meio século. Quando comprovou como uma verdade naquele ano, ele revisou o que viria a ser conhecido como a Lei de Moore para afirmar que os transistores em um chip dobram a cada dois anos.

Desde então, sua previsão tem sido utilizada para medir a trajetória da tecnologia e, de várias maneiras, do próprio progresso.

O argumento de Moore foi baseado em uma questão econômica. Os circuitos integrados, com vários transistores e outros dispositivos eletrônicos interconectados com linhas de metal de alumínio em um pequeno quadrado de pastilha de silício, haviam sido inventados alguns anos antes por Robert Noyce, da Fairchild Semiconductor. Moore, diretor de P&D da empresa, percebeu, como escreveu em 1965, que, com esses novos circuitos integrados, “o custo por componente é quase inversamente proporcional ao número de componentes”. Foi uma ideia interessante – em teoria, quanto mais transistores você adicionasse, mais barato cada um ficaria. Moore também viu que havia muito espaço para avanços na engenharia para aumentar o número de transistores que você poderia colocar de forma econômica e confiável em um chip.

Em breve, esses chips mais baratos e mais poderosos se tornariam o que os economistas gostam de chamar de tecnologia de uso geral (em inglês, General Purpose Technology, GPT) – tão fundamental que gera todo tipo de outras inovações e avanços em vários setores. Alguns anos atrás, os principais economistas reconheceram que a tecnologia da informação em circuitos integrados estava envolvida em um terço do crescimento da produtividade nos EUA desde 1974. Quase todas as tecnologias de que gostamos, de smartphones a laptops baratos e GPS, são um reflexo direto da previsão de Moore. Também alimentou os avanços atuais em inteligência artificial (IA) e medicina genética, dando às técnicas de machine learning a capacidade de analisar grandes quantidades de dados para encontrar as respostas.

Mas como uma previsão simples, baseada na extrapolação de um gráfico do número de transistores por ano – um gráfico que na época tinha apenas alguns pontos de dados – chegou a definir meio século de progresso? Em parte, pelo menos, porque a indústria de semicondutores decidiu assim.

Moore escreveu que “colocar mais componentes em circuitos integrados”, título de seu artigo de 1965, “levaria a maravilhas como por exemplo computadores domésticos – ou pelo menos terminais conectados a um computador central – controles automáticos para automóveis e equipamentos pessoais de comunicação portátil”. Em outras palavras, seu roteiro consistia em colocar cada vez mais transistores em chips para que isso nos levasse à terra prometida. E nas décadas seguintes, essa indústria em expansão, o governo e exércitos de pesquisadores acadêmicos e industriais investiram tempo e dinheiro na defesa da Lei de Moore, criando uma profecia autorrealizável que mantinha o progresso no caminho com uma precisão extraordinária. Embora o ritmo desse avanço tenha caído nos últimos anos, os chips mais modernos hoje têm quase 50 bilhões de transistores.

Todos os anos, desde 2001, a MIT Technology Review escolhe as 10 tecnologias inovadoras mais importantes do ano. É uma lista de tecnologias que, quase sem exceção, só são possíveis devido aos avanços computacionais descritos pela Lei de Moore.

Para alguns dos itens deste ano na lista, sua conexão é óbvia: dispositivos de consumo, incluindo relógios e telefones, com IA integrada; atribuição de mudanças climáticas por meio de modelagem computacional aprimorada e dados coletados de sistemas globais de monitoramento atmosférico; e satélites baratos e pequenos. Outros avanços da lista, incluindo a supremacia quântica, moléculas descobertas usando IA, e até tratamentos antienvelhecimento e medicamentos hiper personalizados, existem graças, em grande parte, ao poder computacional disponível aos pesquisadores.

Mas o que acontecerá quando a lei de Moore inevitavelmente chegar ao fim? Ou se, como alguns suspeitam, ela já tenha morrido, e já estamos funcionando com a fumaça do maior mecanismo de tecnologia de nosso tempo?

Descanse em paz

“Acabou. Este ano ficou muito claro”, diz Charles Leiserson, cientista da computação do MIT e pioneiro da computação paralela, em que vários cálculos são realizados simultaneamente. A mais nova fábrica da Intel, projetada para fabricar chips com tamanho mínimo de 10 nanômetros, sofreu grandes atrasos e só começou a entregá-los em 2019, cinco anos após o lançamento dos chips de 14 nanômetros da geração anterior. A lei de Moore, diz Leiserson, sempre esteve relacionada a taxa de progresso e “não estamos mais nessa taxa”. Inúmeros outros importantes cientistas de computação também declararam a morte da Lei de Moore nos últimos anos. No início de 2019, o CEO da grande fabricante de chips Nvidia concordou.

Na verdade, tem sido mais um declínio gradual do que uma morte súbita. Ao longo das décadas, alguns, às vezes incluindo até o próprio Moore, expressaram medo da possibilidade de perceberem que o fim estava próximo, uma vez que fabricar transistores cada vez menores era cada vez mais difícil. Em 1999, um pesquisador da Intel temia que o objetivo do setor de reduzir os transistores abaixo de 100 nanômetros até o ano de 2005 enfrentasse problemas físicos fundamentais com “nenhuma solução conhecida”, como os efeitos quânticos dos elétrons que vagam onde não deveriam.

Durante anos, a indústria de chips conseguiu escapar desses obstáculos físicos. Novos projetos de transistores foram apresentados para agrupar melhor os elétrons. Foram inventados novos métodos litográficos que usavam radiação ultravioleta extrema quando os comprimentos de onda da luz visível eram espessos demais para esculpir com precisão as características de silício de apenas algumas dezenas de nanômetros. Mas o progresso se tornou cada vez mais caro. Economistas de Stanford e do MIT calcularam que o esforço de pesquisa para sustentar a Lei de Moore aumentou em um fator de 18 desde 1971.

Da mesma forma, as fábricas dos chips mais avançados estão se tornando demasiadamente caras. O custo de uma fábrica está aumentando em torno de 13% ao ano e deve chegar a US$ 16 bilhões ou mais até 2022. Não é por acaso que o número de empresas com planos de fabricar a próxima geração de chips foi reduzido para apenas três, de oito em 2010 e 25 em 2002.

Encontrar sucessores para os chips de silício de hoje levará anos de pesquisa. Se você está preocupado com o que substituirá a Lei de Moore, é hora de entrar em pânico.

.

No entanto, a Intel – um desses três fabricantes de chips – não espera um funeral para a Lei de Moore tão cedo. Jim Keller, que assumiu o cargo de diretor de engenharia de silício da Intel em 2018, é o homem com o trabalho de mantê-la viva. Ele lidera uma equipe de cerca de 8.000 engenheiros de hardware e designers de chips da Intel. Quando ele ingressou na empresa, diz Keller, muitos estavam antecipando o fim da Lei de Moore. Se eles estavam certos, ele se lembra de ter pensado: “Seria um desastre” e talvez ele tivesse feito “uma escolha profissional muito errada”.

Mas Keller encontrou amplas oportunidades técnicas para avanços. Ele ressalta que provavelmente existem mais de uma centena de variáveis ​​envolvidas na manutenção da Lei de Moore, cada uma das quais oferece benefícios diferentes e enfrenta seus próprios limites. Isso significa que existem muitas maneiras de dobrar o número de dispositivos em um chip – inovações como arquiteturas 3D e novos projetos de transistor.

Atualmente, Keller parece otimista. Ele afirma que tem ouvido falar sobre o fim da lei de Moore desde que começou sua carreira. Depois de um tempo, ele “decidiu não se preocupar com isso”. Ele diz que a Intel está em um bom caminho pelos próximos 10 anos e fará as contas com satisfação: 65 bilhões (número de transistores) vezes 32 (se a densidade de chips dobrar a cada dois anos) igual a 2 trilhões de transistores. “Trata-se de uma melhoria de 30 vezes no desempenho “, explica ele, acrescentando que, se os desenvolvedores de software forem bons, em 10 anos poderemos ter chips 100 vezes mais rápidos do que hoje.

Ainda assim, mesmo que a Intel e outros fabricantes de chips consigam lançar mais algumas gerações de microchips ainda mais avançados, fica claro que os dias em que você podia contar com os chips mais rápidos e mais baratos a cada dois anos estão acabados. No entanto, isso não significa o fim do progresso computacional.

Hora de entrar em pânico

Neil Thompson é economista, mas seu escritório está no CSAIL, o amplo centro de computação e inteligência artificial do MIT, cercado por roboticistas e cientistas da computação, incluindo seu colaborador Leiserson. Em um novo artigo, ele mostra amplo escopo para aperfeiçoar o desempenho computacional por meio de melhores softwares, algoritmos e arquitetura de chip especializada.

Uma das estratégias é reduzir o chamado software inflado (ou bloatware) para aproveitar ao máximo os chips existentes. Quando os chips sempre podiam ser usados ​​para ficar mais rápidos e mais poderosos, os programadores não precisavam se preocupar muito em escrever códigos mais eficientes. Eles também não costumavam tirar o máximo proveito das alterações na arquitetura de hardware, como os múltiplos núcleos ou processadores, existentes nos chips usados ​​atualmente.

Thompson e colegas demonstraram que podiam obter um cálculo computacionalmente intensivo, que era 47 vezes mais rápido apenas mudando do Python, uma popular linguagem de programação para propósitos diversos, para C, que é mais eficiente. Isso ocorre porque, embora a linguagem C exija mais trabalho por parte do programador, ela também reduz bastante o número necessário de operações, permitindo que um programa seja executado muito mais rapidamente. Adaptar ainda mais o código para tirar o máximo proveito de um chip com 18 núcleos de processamento acelerou ainda mais as coisas. Em apenas 0,41 segundos, os pesquisadores alcançaram o mesmo resultado em sete horas com o código Python.

Isso soa como uma boa notícia para o progresso contínuo, mas Thompson se preocupa também sinalizando o declínio dos computadores como uma tecnologia de uso geral. Em vez de “melhorar a vida de todos”, como a Lei de Moore fez, ao oferecer chips cada vez mais rápidos e baratos, disponíveis universalmente, os avanços no software e na arquitetura especializada agora começarão a visar seletivamente problemas específicos e oportunidades de negócios, favorecendo aqueles com dinheiro e recursos suficientes.

De fato, a mudança para chips projetados para aplicações específicas, particularmente em IA, está bem encaminhada. O deep learning e outros aplicativos de IA dependem cada vez mais de unidades de processamento gráfico (em inglês, Graphics Processing Unit, GPUs) adaptadas dos jogos, que podem lidar com operações paralelas, enquanto empresas como Google, Microsoft e Baidu estão projetando chips de IA para suas próprias necessidades particulares. A IA, especificamente o deep learning, precisa de muito poder computacional, e os chips especializados podem acelerar muito seu desempenho, explica Thompson.

Mas o problema é que os chips especializados são menos versáteis que os processadores tradicionais. Thompson está preocupado com o fato de os chips para a computação geral estarem estagnando e desacelerando “o ritmo geral da melhoria do computador”, como ele escreveu em seu último estudo, The Decline of Computers as a General Purpose Technology (em português, “O Declínio dos Computadores como Tecnologia de Uso Geral”).

Em algum momento, diz Erica Fuchs, professora de engenharia e políticas públicas da Carnegie Mellon, aqueles desenvolvendo IA e outros aplicativos terão que parar de confiar nas reduções de custo e no aumento de desempenho que a Lei de Moore oferece. “Talvez em 10 ou 30 anos – ninguém realmente sabe quando – precisaremos de um dispositivo com esse poder computacional adicional”, diz ela.

O problema, diz Fuchs, é que os sucessores dos chips de uso geral de hoje são desconhecidos e levarão anos de pesquisa e desenvolvimento básicos para criar. Se você está preocupado com o que substituirá a Lei de Moore, ela sugere: “o momento de entrar em pânico é agora”. Ela diz que existem “pessoas realmente inteligentes em IA que desconhecem as limitações de hardware que os avanços a longo prazo na computação enfrentam”. Além disso, ela explica que, como os chips específicos de aplicativos estão provando ser muito lucrativos, há pouco incentivo para investir em novos dispositivos lógicos e formas de computação.

Procura-se: Um plano Marshall para chips

Em 2018, Fuchs e seus colegas da CMU, Hassan Khan e David Hounshell, escreveram um artigo sobre a história da lei de Moore identificando as mudanças responsáveis ​​pela atual falta de colaboração entre a indústria e o governo que promoveram o progresso nas décadas anteriores. Eles afirmam que “a fragmentação das trajetórias tecnológicas e a lucratividade privada de curto prazo de muitos desses novos fragmentadores” significam que devemos aumentar muito o investimento público para encontrar as próximas grandes tecnologias de computação.

Se os economistas estão certos, e grande parte do crescimento nos anos 90 e início dos anos 2000 foi resultado de microchips – e se, como alguns sugerem, o lento crescimento da produtividade iniciado em meados dos anos 2000 reflete a desaceleração do progresso computacional – então, diz Thompson, “podemos deduzir que enormes quantias de dinheiro devem ser investidas para encontrar a tecnologia sucessora. Nós não estamos fazendo isso. E é uma falha de política pública”.

No entanto, não há garantia de que esses investimentos sejam recompensados. A computação quântica, os transistores de nanotubos de carbono e até a spintrônica são possibilidades atraentes – mas nenhuma é uma substituição óbvia à promessa que Gordon Moore viu pela primeira vez em um circuito integrado simples. Precisamos agora de investimentos em pesquisa para descobrir. Porque uma previsão é quase certa de se tornar realidade: sempre vamos querer mais poder de computação.

Último vídeo

Nossos tópicos