Em janeiro, o mundo da IA estava em polvorosa com um novo artigo do Google DeepMind publicado na Nature, segundo o qual o laboratório conseguiu criar um sistema de IA capaz de resolver problemas complexos de geometria. Batizado de AlphaGeometry, o sistema combina um modelo de linguagem com um tipo de IA chamado de mecanismo simbólico que usa símbolos e regras lógicas para fazer deduções — foi como escreveu meu colega June Kim. Você pode ler mais sobre o AlphaGeometry aqui.
Essa é a segunda vez nos últimos meses que o mundo da IA se empolga com a matemática. Em novembro do ano passado, as conversas aumentaram muito quando surgiram relatos de que o drama da diretoria da OpenAI — aquele que levou à destituição temporária do CEO Sam Altman —, foi causado por uma nova e poderosa descoberta de IA. Foi relatado que o sistema de IA em questão era chamado de Q* e podia resolver cálculos matemáticos complexos. (A empresa não comentou sobre esse sistema e ainda não sabemos se houve alguma ligação com a demissão de Altman ou não). Descompactei o drama e o hype nesta história.
Não é preciso gostar muito de matemática para ver por que esse material é potencialmente muito empolgante. A matemática é muito, muito difícil para os modelos de IA. E a matemática complexa, como a geometria, exige habilidades de raciocínio sofisticadas, e muitos pesquisadores de IA acreditam que a capacidade de decifrá-la pode ser o prenúncio de sistemas mais poderosos e inteligentes. Inovações como o AlphaGeometry mostram que estamos nos aproximando de máquinas com habilidades de raciocínio mais semelhantes às humanas. Isso poderia nos permitir criar ferramentas de IA mais poderosas que poderiam ser usadas para ajudar os matemáticos a resolverem equações e, talvez, criar melhores ferramentas de tutoria.
Trabalhos como esse podem nos ajudar a usar os computadores para tomar decisões melhores e ser mais lógicos, diz Conrad Wolfram, da Wolfram Research. A empresa está por trás do WolframAlpha, um mecanismo de resposta que pode lidar com questões matemáticas complexas.
Mas há uma pegadinha. Para que possamos colher os benefícios da IA, os humanos também precisam se adaptar, diz ele. Precisamos entender melhor como a tecnologia funciona para que possamos abordar os problemas de uma forma que os computadores possam resolver.
“À medida que os computadores melhoram, os humanos precisam se ajustar a isso e saber mais, adquirir mais experiência sobre se isso funciona, onde não funciona, onde podemos confiar ou não”, diz Wolfram.
Wolfram argumenta que, à medida que entramos na era da IA com computadores mais potentes, os seres humanos precisam adotar o “pensamento computacional”, que envolve a definição e a compreensão de um problema e, em seguida, dividi-lo em partes para que um computador possa calcular a resposta.
Ele compara esse momento com o surgimento da alfabetização em massa no final do século 18, que pôs fim à era em que apenas a elite sabia ler e escrever.
“Os países que fizeram isso primeiro se beneficiaram enormemente com sua revolução industrial… Agora precisamos de uma alfabetização computacional em massa, que é o equivalente a isso.”