Oferecido por
Não é segredo que o atual boom da IA está consumindo enormes quantidades de energia. Agora, temos uma noção mais precisa de quanto.
Um novo estudo, conduzido por equipes da Escola de Saúde Pública Harvard T.H. Chan e da Escola de Saúde Pública UCLA Fielding, analisou 2.132 data centers em operação nos Estados Unidos (78% de todas as instalações no país). Esses locais — essencialmente prédios repletos de servidores — são onde os modelos de IA são treinados e onde são acessados toda vez que enviamos uma solicitação para modelos como o ChatGPT. Eles demandam grandes quantidades de energia tanto para alimentar os servidores quanto para resfriá-los.
Desde 2018, as emissões de carbono dos data centers nos EUA triplicaram. Nos 12 meses encerrados em agosto de 2024, os data centers foram responsáveis por 105 milhões de toneladas métricas de CO₂, representando 2,18% das emissões nacionais (para comparação, as companhias aéreas comerciais domésticas respondem por cerca de 131 milhões de toneladas métricas). Aproximadamente 4,59% de toda a energia usada nos EUA é destinada aos data centers, um número que dobrou desde 2018.
É difícil quantificar exatamente o quanto a IA, que tem crescido rapidamente desde o lançamento do ChatGPT em novembro de 2022, é responsável por esse aumento. Isso ocorre porque os data centers processam diversos tipos de dados — além de treinar ou acessar modelos de IA, eles hospedam sites, armazenam suas fotos na nuvem e muito mais. Contudo, os pesquisadores afirmam que a fatia da IA está crescendo rapidamente, à medida que praticamente todos os setores da economia tentam adotar essa tecnologia.
“É um aumento considerável”, afirma Eric Gimon, pesquisador sênior do think tank Energy Innovation, que não esteve envolvido no estudo. “Há muita análise alarmante sobre a rapidez com que esse crescimento exponencial pode ocorrer. Mas ainda estamos nos estágios iniciais em termos de eficiência ou diferentes tipos de chips.”
Notavelmente, as fontes de energia para todo esse consumo são particularmente “sujas”. Como muitos data centers estão localizados em regiões produtoras de carvão, como a Virgínia, a “intensidade de carbono” da energia que utilizam é 48% maior do que a média nacional. O estudo, publicado no arXiv e ainda não revisado por pares, descobriu que 95% dos data centers nos EUA estão em locais com fontes de eletricidade mais poluentes do que a média nacional.
Há outras causas além da proximidade com regiões carboníferas, explica Falco Bargagli-Stoffi, autor do estudo e professor assistente na Escola de Saúde Pública UCLA Fielding. “Energia mais poluente está disponível durante todo o dia”, afirma, e muitos data centers precisam desse fornecimento constante para operar 24 horas por dia, 7 dias por semana. “Fontes renováveis, como eólica ou solar, podem não estar tão disponíveis.” Incentivos fiscais ou políticos, além da resistência local, também podem influenciar a localização dos data centers.
Uma mudança importante na IA significa que as emissões dessa área devem crescer ainda mais em breve. Os modelos de IA estão avançando rapidamente de geradores de texto relativamente simples, como o ChatGPT, para geradores complexos de imagens, vídeos e músicas. Até agora, muitos desses modelos “multimodais” estavam restritos à fase de pesquisa, mas isso está mudando.
A OpenAI lançou seu modelo de geração de vídeos Sora para o público em 9 de dezembro, e o site ficou sobrecarregado de tráfego de pessoas ansiosas para testá-lo, o que fez com que ainda não funcionasse corretamente. Modelos concorrentes, como o Veo do Google e o Movie Gen da Meta, ainda não foram lançados publicamente, mas se essas empresas seguirem o exemplo da OpenAI, como já fizeram no passado, isso pode acontecer em breve. Modelos de geração de música da Suno e da Udio estão em crescimento (apesar de processos judiciais), e a Nvidia lançou seu próprio gerador de áudio no mês passado. O Google está desenvolvendo o projeto Astra, um assistente de vídeo em IA que poderá interagir com os usuários sobre seu ambiente em tempo real.
“À medida que escalamos para imagens e vídeos, o tamanho dos dados aumenta exponencialmente”, diz Gianluca Guidi, doutorando em inteligência artificial na Universidade de Pisa e IMT Lucca e pesquisador visitante em Harvard, que é o autor principal do estudo. Ao combinar esse crescimento com a adoção mais ampla, ele afirma, as emissões logo dispararão.
Um dos objetivos dos pesquisadores foi criar uma maneira mais confiável de medir a quantidade de energia que os data centers estão consumindo. Isso tem sido uma tarefa mais complexa do que o esperado, já que os dados estão dispersos em várias fontes e agências. Eles agora desenvolveram um portal que mostra as emissões dos data centers em todo o país. O objetivo a longo prazo dessa iniciativa é informar futuros esforços regulatórios para reduzir as emissões desses centros, cuja expansão é projetada para crescer enormemente nos próximos anos.
“Haverá uma pressão crescente entre as comunidades preocupadas com o meio ambiente e a sustentabilidade e as Big Techs”, afirma Francesca Dominici, diretora da Harvard Data Science Initiative, professora de Harvard e outra coautora. “Mas minha previsão é que não haverá regulamentação. Pelo menos nos próximos quatro anos.”
–