Outono de 2021 no hemisfério norte: a estação das abóboras, das tortas de nozes e de lançamentos de smartphones. Todos os anos, nesse exato período, Apple, Samsung, Google e tantas outras empresas lançam seus produtos. É um momento que perdeu sua importância no calendário tecnológico, uma vez que não mais surpreende os consumidores, tampouco desperta neles a mesma fascinação de antes. Há, contudo, algo notável acontecendo por trás de toda essa estratégia de marketing.
O último produto do Google, o Pixel 6, é o primeiro aparelho a ter um chip exclusivamente dedicado à Inteligência Artificial (IA), ao lado do processador padrão. Por sua vez, o chip que tem rodado no iPhone nos últimos anos possui o que a Apple chama de “motor neural”, também dedicado à IA. Ambos os chips são mais adequados para os tipos de cálculos envolvidos no treinamento e na execução de modelos de machine learning em nossos dispositivos, similares a IA já presentes nas câmeras de celulares. De maneira quase imperceptível, a IA se tornou parte do nosso dia-a-dia. Ela está mudando a forma como pensamos a computação.
E o que isso quer dizer? Bem, os computadores não avançaram muito em 40 ou 50 anos. Eles se tornaram menores e mais rápidos, mas ainda são meras caixas com processadores que executam as instruções de humanos. A IA está mudando essa realidade em pelo menos três aspectos: a maneira pela qual os computadores são produzidos, a forma com que eles são programados e como se faz uso deles. No final das contas, esse é um fenômeno que irá mudar a função dos computadores.
“O cerne da computação está se transferindo do processamento de números para a tomada de decisão”, diz Pradeep Dubey, diretor do laboratório de computação paralela da Intel. Em outras palavras, como diz a diretora do MIT CSAIL, Daniela Rus, a IA está libertando os computadores de suas caixas.
Para se ganhar a corrida, é preciso ter calma
A primeira mudança diz respeito a como os computadores, e os chips que os controlam, são feitos. Os avanços da computação tradicional vieram à medida que as máquinas se tornaram mais rápidas na execução de cálculos consecutivos. Por décadas, o mundo se beneficiou da aceleração dos chips resultante da regularidade metronômica, conforme os fabricantes de chips ajustavam-se à Lei de Moore.
Os modelos de deep learning que fazem os aplicativos de IA atuais funcionarem exigem, contudo, uma abordagem diferente: eles precisam que um grande número de cálculos menos precisos seja executado ao mesmo tempo. Isso significa que um novo tipo de chip é necessário: um que possa movimentar os dados o mais rápido possível, garantindo que estes estejam disponíveis sempre que necessário. Quando o deep learning entrou em cena há cerca de uma década, já havia chips de computador especializados que eram muito bons nisso: unidades de processamento gráfico (GPUs, pela sigla em inglês) projetadas para exibir uma tela inteira de pixels dezenas de vezes por segundo.
Qualquer coisa pode se tornar um computador. Na verdade, a maioria dos produtos domésticos, de escovas de dente a interruptores de luz e campainhas, já possuem uma versão inteligente.
Agora, fabricantes de chips como Intel, Arm e Nvidia, que forneceram muitas das primeiras GPUs, estão se empenhando para fazer hardware sob medida para IA. Pela primeira vez, Google e Facebook estão adentrando neste setor, em uma corrida para encontrar um diferencial de IA por meio do hardware.
Por exemplo, o chip dentro do Pixel 6 é uma nova versão móvel da unidade de processamento de tensor do Google (TPU, pela sigla em inglês). Diferentemente dos chips tradicionais, que são voltados para cálculos ultrarrápidos e precisos, as TPUs são projetadas para cálculos de alto volume, mas de baixa precisão, que as redes neurais exigem. O Google usa esses chips internamente desde 2015: eles processam fotos de pessoas e consultas de pesquisa em linguagem natural. A afiliada do Google, a DeepMind, usa os mesmos chips para treinar suas IAs.
Nos últimos dois anos, o Google disponibilizou TPUs para outras empresas, e esses chips, bem como outros semelhantes que estão sendo desenvolvidos por outras organizações, estão se tornando padrão dentro dos centros de dados do mundo.
A IA está até ajudando a projetar sua própria infraestrutura de computação. Em 2020, o Google usou um algoritmo de reinforcement learning, um tipo de IA que aprende como resolver uma tarefa por tentativa e erro, para criar uma nova TPU. A IA gerou novos e estranhos designs que nenhum ser humano seria capaz de projetar, mas funcionaram. Esse tipo de IA poderia um dia desenvolver chips melhores e mais eficientes.
Mostre ao invés de dizer
A segunda mudança diz respeito a como os computadores são informados sobre o que fazer. Nos últimos 40 anos, programamos os computadores; nos próximos 40, iremos treiná-los, diz Chris Bishop, diretor da Microsoft Research no Reino Unido.
Tradicionalmente, para que um computador faça algo como reconhecer uma fala ou identificar objetos em uma imagem, os programadores têm que, primeiro, criar regras para o computador.
Com o machine learning, os programadores não ditam mais as regras. Em vez disso, eles criam uma rede neural que aprende essas regras sozinha. É uma maneira fundamentalmente diferente de pensar.
Exemplos disso já são comuns: o reconhecimento de voz e a identificação de imagens que agora são recursos padrão em smartphones. Outros exemplos continuam ganhando notoriedade, como quando o AlphaZero aprendeu sozinho a jogar Go melhor do que os humanos. O AlphaFold solucionou um problema da Biologia sobre o qual os cientistas se debruçaram por décadas: o de descobrir como as proteínas se dobram.
Para Bishop, os próximos grandes avanços virão na simulação molecular: treinar computadores para manipular as propriedades da matéria pode criar mudanças globais no uso de energia, produção de alimentos, manufatura e medicina.
Promessas como essa são feitas com frequência. Também é verdade que o deep learning tem um histórico surpreendente. Dois dos maiores avanços desse tipo até agora, fazer com que os computadores se comportem como se entendessem a linguagem que usamos e reconheçam o que está em uma imagem, já estão mudando a maneira como os usamos.
Os computadores sabem de tudo
Por décadas, fazer com que um computador fizesse algo significava digitar um comando ou, pelo menos, clicar em um botão.
As máquinas não precisam mais de um teclado ou tela para que os humanos interajam com elas. Qualquer coisa pode se tornar um computador. Na verdade, a maioria dos produtos domésticos, de escovas de dente a interruptores de luz e campainhas, já possuem uma versão inteligente. À medida que eles se proliferam, contudo, aumenta também a nossa vontade de querer perder menos tempo dizendo a eles o que fazer. É como se eles devessem ser capazes de descobrir o que precisamos sem nossa interferência.
Esta é a mudança da análise de números para a tomada de decisões que Dubey vê como determinante dessa nova era da computação.
Daniela Rus, por sua vez, quer que adotemos o suporte cognitivo e físico que é disponibilizado. Ela idealiza computadores que nos digam aquilo que precisamos saber e quando precisamos saber e que nos auxiliam quando precisamos de uma mãozinha. “Quando eu era criança, um dos meus filmes favoritos [cenas] em todo o mundo era ‘O Aprendiz de Feiticeiro’”, diz Rus. “Aquela que o Mickey convoca a vassoura para ajudá-lo na arrumação? Não precisaremos de mágica para fazer isso acontecer”.
Nós sabemos como essa cena do filme ‘Fantasia’ termina. O Mickey perde o controle da vassoura e tudo fica ainda mais bagunçado. Agora que as máquinas estão interagindo com as pessoas e se integrando cada vez mais ao caos do mundo, tudo se torna mais incerto. Os computadores já estão fora de suas caixas.