A história que você ainda não conhece sobre a pegada energética da IA
Energy

A história que você ainda não conhece sobre a pegada energética da IA

As emissões de consultas individuais de texto, imagem e vídeo da IA parecem pequenas — até você somar o que a indústria não está acompanhando e considerar para onde ela está indo.

A integração da Inteligência Artificial em nossas vidas é a maior transformação na vida online em mais de uma década. Centenas de milhões de pessoas agora recorrem regularmente a chatbots para ajudar com dever de casa, pesquisas, programação, ou para criar imagens e vídeos. Mas o que está alimentando tudo isso?

Uma nova análise da MIT Technology Review oferece um olhar inédito e abrangente sobre o quanto a indústria de IA consome de energia, detalhado até o nível de uma única consulta, para rastrear qual é sua pegada de carbono hoje e para onde ela está caminhando, enquanto a IA avança rumo a bilhões de usuários diários.

Falamos com duas dúzias de especialistas que medem o consumo energético da IA, avaliamos diferentes modelos e tipos de consulta, analisamos centenas de páginas de projeções e relatórios, e questionamos os principais desenvolvedores de modelos de IA sobre seus planos. No final, descobrimos que o entendimento comum sobre o consumo energético da IA é cheio de lacunas.

Começamos pelo básico: quanto custa energeticamente uma única consulta? Essa pergunta é vital para entender o panorama maior. Isso porque essas consultas estão sendo incorporadas a cada vez mais aplicações além dos chatbots independentes: desde buscas e agentes inteligentes até os aplicativos do dia a dia que usamos para monitorar nossa saúde, fazer compras online ou reservar voos.

Os recursos energéticos necessários para impulsionar essa revolução da IA são impressionantes, e as maiores empresas de tecnologia do mundo fizeram disso uma prioridade máxima, com o objetivo de aproveitar cada vez mais essa energia, ao mesmo tempo em que pretendem remodelar nossas redes elétricas.

Meta e Microsoft estão investindo em novas usinas nucleares. OpenAI e o ex-presidente Donald Trump anunciaram a iniciativa Stargate, que pretende gastar 500 bilhões de dólares, mais que o programa Apollo, para construir até 10 novos data centers (cada um podendo demandar cinco gigawatts, mais do que o consumo total do estado de New Hampshire). A Apple planeja investir 500 bilhões de dólares em fabricação e data centers nos EUA nos próximos quatro anos. O Google deve gastar 75 bilhões somente em infraestrutura de IA em 2025.

Isso não é apenas o padrão do mundo digital. É algo único da IA e representa uma mudança radical no apetite energético das grandes empresas de tecnologia. Entre 2005 e 2017, o consumo de energia dos data centers permaneceu praticamente estável, graças aos ganhos de eficiência, mesmo com a construção de muitos novos centros para atender à crescente demanda por serviços em nuvem, como Facebook e Netflix.

Mas, em 2017, a IA começou a mudar tudo. Data centers passaram a ser equipados com hardwares altamente consumidores de energia, especialmente projetados para IA, fazendo com que seu consumo elétrico dobrasse até 2023. Relatórios recentes indicam que 4,4% de toda a energia consumida nos EUA é destinada aos data centers.

A intensidade de carbono da eletricidade usada por esses centros era 48% maior que a média nos EUA.

Dado o rumo que a IA está tomando, cada vez mais personalizada, capaz de raciocinar e resolver problemas complexos por nós, e presente em praticamente todos os lugares, é provável que nossa pegada atual de IA seja a menor que teremos. Segundo projeções publicadas em dezembro pelo Lawrence Berkeley National Laboratory, em 2028 mais da metade da eletricidade consumida pelos data centers será usada para IA. Nesse cenário, só a IA poderá consumir anualmente energia equivalente à de 22% das residências americanas.

Enquanto isso, espera-se que os data centers continuem aumentando o uso de fontes de energia mais poluentes e com maior intensidade de carbono, como o gás natural, para atender a necessidades imediatas, deixando uma nuvem de emissões para trás. E todo esse crescimento é para uma tecnologia que ainda está se estabilizando e que, em várias aplicações, educação, aconselhamento médico, análises jurídicas, pode não ser a ferramenta ideal ou pode ter alternativas menos intensivas em energia.

As estimativas do consumo energético da IA frequentemente distorcem a conversa, ora culpando o comportamento individual, ora comparando com grandes poluidores climáticos. Ambas as reações desviam do ponto: a IA é inevitável, e mesmo que uma única consulta tenha baixo impacto, governos e empresas já estão moldando um futuro energético muito maior em torno das necessidades da IA.

Nossa abordagem é diferente: queremos apresentar um balanço que informe as decisões que ainda virão, onde construir data centers, quais fontes de energia usar, e como tornar a crescente conta energética da IA visível e responsabilizável.

Isso porque, apesar da ambiciosa visão das empresas de tecnologia, fornecedores de energia e governo federal, os detalhes de como esse futuro pode se concretizar ainda são nebulosos. Cientistas, instituições de pesquisa financiadas com recursos públicos, ativistas e empresas do setor energético argumentam que as principais empresas de IA e operadores de data centers divulgam informações insuficientes sobre suas operações. As companhias que desenvolvem e operam modelos de IA mantêm em segredo uma questão central: quanto de energia é consumido ao interagir com um desses modelos? E quais fontes energéticas alimentarão o futuro da IA?

Essa falta de transparência obriga até mesmo especialistas a montar um quebra-cabeça com inúmeras peças faltando, dificultando o planejamento do impacto futuro da IA sobre as redes elétricas e as emissões. Pior ainda: os acordos entre as empresas de energia e os data centers provavelmente repassarão os custos da revolução da IA para os consumidores, na forma de contas de eletricidade mais altas.

É muita informação para assimilar. Para descrever o panorama geral de como esse futuro será, precisamos começar pelo começo.

Parte Um: construindo o modelo

Antes que você possa pedir a um modelo de IA para ajudar com planos de viagem ou gerar um vídeo, o modelo nasce em um data center.

Racks de servidores trabalham por meses, processando dados de treinamento, fazendo cálculos e operações complexas. Esse processo é demorado e caro — estima-se que treinar o GPT-4 da OpenAI custou mais de 100 milhões de dólares e consumiu 50 gigawatts-hora de energia, suficiente para abastecer San Francisco por três dias. Só após esse treinamento, quando usuários “inferem” respostas ou produzem saídas com os modelos, os desenvolvedores esperam recuperar esses altos custos e começar a lucrar.

“Para qualquer empresa lucrar com um modelo, isso só acontece na fase de inferência”, explica Esha Choukse, pesquisadora da Microsoft Azure que estuda como tornar essa etapa mais eficiente.

Conversas com especialistas e empresas de IA mostram que a inferência, e não o treinamento, representa a maior parte do consumo energético da IA atualmente, e essa tendência deve continuar. Estima-se que entre 80% e 90% do poder computacional para IA seja usado na inferência.

Tudo isso acontece em data centers. Existem cerca de 3.000 desses prédios nos Estados Unidos, que abrigam servidores e sistemas de resfriamento, operados por provedores de nuvem e gigantes da tecnologia como Amazon ou Microsoft, mas também usados por startups de IA. Um número crescente, embora não seja claro exatamente quantos, já que informações sobre essas instalações são mantidas sob sigilo, são configurados especificamente para inferência de IA.

Nesses centros, os modelos de IA são carregados em grupos de servidores equipados com chips especiais chamados unidades de processamento gráfico (GPUs), destacando-se o modelo H100, da Nvidia.

Este chip começou a ser distribuído em outubro de 2022, apenas um mês antes do lançamento público do ChatGPT. As vendas do H100 dispararam desde então e são parte do motivo pelo qual a Nvidia figura regularmente como a empresa de capital aberto mais valiosa do mundo.

Outros chips incluem o A100 e os mais recentes Blackwells. O que todos têm em comum é uma demanda significativa de energia para operar suas funções avançadas sem superaquecer.

Um único modelo de IA pode estar hospedado em cerca de uma dúzia de GPUs, e um grande data center pode ter bem mais de 10.000 desses chips conectados entre si.

Ligados próximos a esses chips estão os CPUs (chips que fornecem informações para as GPUs) e ventiladores para manter tudo refrigerado.

Parte da energia é desperdiçada em quase todas as trocas devido a materiais isolantes imperfeitos e longos cabos entre os racks de servidores, e muitos edifícios utilizam milhões de litros de água (frequentemente água potável) por dia em suas operações de resfriamento.

Dependendo do uso previsto, esses modelos de IA são carregados em centenas ou milhares de clusters em diversos data centers ao redor do mundo, cada um deles alimentado por diferentes combinações de energia.

Eles ficam conectados à internet, esperando que você faça uma consulta.

Parte Dois: uma consulta

Se você já viu gráficos que estimam o impacto energético de enviar uma pergunta a um modelo de IA, pode pensar que é como medir o consumo de combustível de um carro ou a eficiência energética de uma lava-louças: um valor conhecido, com metodologia comum. Mas não é assim.

Na prática, o tipo e tamanho do modelo, o tipo de saída gerada e inúmeras outras variáveis, como qual rede elétrica está ligada ao data center que processa seu pedido e o horário do dia, podem fazer uma única consulta consumir milhares de vezes mais energia e emitir muito mais carbono do que outra.

E quando você faz uma consulta à maioria dos modelos de IA, seja pelo celular em apps como Instagram, seja pelo site do ChatGPT, grande parte do que acontece após seu pedido ser enviado a um data center permanece um segredo. Detalhes como qual data center processa seu pedido, quanto de energia isso consome e quão limpa é a eletricidade usada, geralmente só são conhecidos pelas empresas que operam os modelos.

Isso é verdade para a maioria dos modelos de marcas conhecidas aos quais você está acostumado, como o ChatGPT da OpenAI, o Gemini do Google e o Claude da Anthropic, que são chamados de “fechados”. Os detalhes chave são mantidos sob sigilo pelas empresas que os produzem, protegidos como segredos comerciais (e possivelmente também por evitarem má publicidade). Essas empresas enfrentam poucos incentivos para divulgar essa informação e, até agora, não o fizeram.

“O fornecimento desses modelos fechados é uma caixa-preta total”, afirma Boris Gamazaychikov, chefe de sustentabilidade em IA na Salesforce, que liderou esforços junto a pesquisadores da Hugging Face para tornar o consumo energético da IA mais transparente. Sem mais informações das empresas, não apenas não temos boas estimativas, quase não temos dados confiáveis.

Então, onde buscar estimativas? Modelos de código aberto podem ser baixados e ajustados por pesquisadores, que utilizam ferramentas especiais para medir o consumo energético dos GPUs H100 em tarefas específicas. Esses modelos são bastante populares; em abril, a Meta anunciou que seus modelos Llama foram baixados mais de 1,2 bilhão de vezes, e muitas empresas usam modelos open source quando querem maior controle sobre os resultados do que o oferecido por ferramentas como o ChatGPT.

Mas mesmo que os pesquisadores possam medir a energia consumida pela GPU, isso deixa de fora a energia usada pelas CPUs, ventiladores e outros equipamentos. Um artigo de 2024 da Microsoft analisou a eficiência energética para a inferência de grandes modelos de linguagem e descobriu que dobrar a quantidade de energia usada pela GPU fornece uma estimativa aproximada da demanda total de energia da operação.

Então, por enquanto, medir os principais modelos de código aberto (e adicionar estimativas para todas essas outras partes) nos dá a melhor ideia que temos de quanta energia é usada para uma única consulta de IA. No entanto, é importante lembrar que as formas como as pessoas usam IA hoje, para escrever uma lista de compras ou criar um vídeo surrealista, são muito mais simples do que aquelas que usaremos no futuro autônomo e agente, para o qual as empresas de IA estão nos direcionando. Falaremos mais sobre isso adiante.

Aqui está o que descobrimos.

Modelos de texto

Vamos começar com modelos onde você digita uma pergunta e recebe uma resposta em palavras. Um dos principais grupos que avalia a demanda energética da IA está na Universidade de Michigan, liderado pelo doutorando Jae-Won Chung e pelo professor associado Mosharaf Chowdhury, que publicam medições de energia no ML.Energy leaderboard. Trabalhamos com a equipe para focar nas demandas energéticas de um dos modelos de código aberto mais adotados, o Llama da Meta.

O menor modelo do nosso grupo Llama, o Llama 3.1 8B, tem 8 bilhões de parâmetros, essencialmente os “botões ajustáveis” em um modelo de IA que permitem fazer previsões. Quando testado em vários tipos de prompts de geração de texto, como montar um roteiro de viagem para Istambul ou explicar computação quântica, o modelo precisou de cerca de 57 joules por resposta, ou um estimado de 114 joules quando contabilizando resfriamento, outros cálculos e outras demandas. Isso é muito pouco — aproximadamente o que se gasta para andar seis pés (cerca de 1,8 metro) em uma bicicleta elétrica, ou para usar um micro-ondas por um décimo de segundo.

O maior do nosso grupo de geração de texto, o Llama 3.1 405B tem 50 vezes mais parâmetros. Mais parâmetros geralmente significam respostas melhores, mas também mais energia exigida para cada resposta. Em média, esse modelo precisou de 3.353 joules, ou um estimado de 6.706 joules no total, para cada resposta. Isso é suficiente para transportar uma pessoa por cerca de 400 pés (aproximadamente 122 metros) em uma bicicleta elétrica ou para usar um micro-ondas por oito segundos.

O tamanho do modelo é um grande indicador da demanda energética. Isso porque, ao atingir certo porte, ele precisa rodar em mais chips, o que aumenta o consumo. O maior modelo testado tem 405 bilhões de parâmetros, mas outros, como o DeepSeek, ultrapassam 600 bilhões. Os números para modelos fechados não são divulgados publicamente e só podem ser estimados. Estima-se que o GPT-4 tenha mais de 1 trilhão de parâmetros.

Mas, em todos esses casos, o próprio prompt também foi um grande fator. Prompts simples, como pedir para contar algumas piadas, frequentemente usaram nove vezes menos energia do que prompts mais complexos, como escrever histórias criativas ou ideias de receitas.

Gerando uma imagem

Modelos de IA que geram imagens e vídeos funcionam com uma arquitetura diferente, chamada difusão. Em vez de prever e gerar palavras, eles aprendem como transformar uma imagem de ruído em, digamos, uma foto de um elefante. Fazem isso aprendendo os contornos e padrões das imagens em seus dados de treinamento e armazenando essas informações em milhões ou bilhões de parâmetros. Modelos geradores de vídeo aprendem a fazer isso também na dimensão do tempo.

A energia requerida por um modelo de difusão específico não depende do seu prompt. Gerar uma imagem de um esquiador em dunas de areia requer a mesma energia que gerar uma de um astronauta cultivando em Marte. A demanda de energia depende do tamanho do modelo, da resolução da imagem e do número de “passos” que o processo de difusão dá (mais passos levam a maior qualidade, mas precisam de mais energia).

Gerar uma imagem padrão (1024 x 1024 pixels) com o Stable Diffusion 3 Medium, o principal gerador de imagens open source, com 2 bilhões de parâmetros, requer cerca de 1.141 joules de energia da GPU. Com modelos de difusão, diferente dos grandes modelos de linguagem, não existem estimativas de quanto as GPUs respondem do total de energia exigida, mas especialistas sugerem manter a abordagem de “duplicar” que temos usado até agora, pois as diferenças provavelmente são sutis. Isso significa um total estimado de 2.282 joules.

Melhorar a qualidade da imagem ao dobrar o número de passos de difusão para 50 praticamente dobra a energia requerida, para cerca de 4.402 joules. Isso equivale a cerca de 76 metros em uma bicicleta elétrica, ou cerca de cinco segundos e meio no micro-ondas. Ainda assim, é menos que o maior modelo de texto.

Isso pode ser surpreendente se você imaginava que gerar imagens exigisse mais energia do que gerar texto. “Modelos grandes [de texto] têm muitos parâmetros”, diz Chung, que fez as medições em geradores de texto e imagem de código aberto mencionados nesta matéria. “Mesmo gerando texto, eles realizam muito trabalho”. Já os geradores de imagem, por outro lado, frequentemente trabalham com menos parâmetros.

Criando um vídeo

No ano passado, a OpenAI lançou o Sora, sua impressionante ferramenta para criar vídeos de alta fidelidade com IA. Outros modelos de vídeo de código fechado também foram lançados, como o Veo2 do Google e o Firefly da Adobe.

Considerando a quantidade exorbitante de capital e conteúdo necessária para treinar esses modelos, não é surpresa que os modelos open-source e de uso gratuito geralmente fiquem atrás em qualidade. Ainda assim, segundo pesquisadores da Hugging Face, um dos melhores é o CogVideoX, criado por uma startup chinesa de IA chamada Zhipu AI e por pesquisadores da Universidade de Tsinghua, em Pequim.

Sasha Luccioni, pesquisadora de IA e clima da Hugging Face, testou a energia requerida para gerar vídeos com o modelo usando uma ferramenta chamada Code Carbon.

Uma versão mais antiga do modelo, lançada em agosto, gerava vídeos a apenas oito quadros por segundo e em resolução granulada, mais parecido com um GIF do que com um vídeo. Cada vídeo exigia cerca de 109 mil joules para ser produzido. Mas, três meses depois, a empresa lançou um modelo maior e de qualidade superior, que produz vídeos de cinco segundos a 16 quadros por segundo (essa taxa ainda não é de alta definição; era a usada na era do cinema mudo em Hollywood até o final dos anos 1920).

O novo modelo usa mais de 30 vezes mais energia para cada vídeo de cinco segundos: cerca de 3,4 milhões de joules, mais de 700 vezes a energia necessária para gerar uma imagem de alta qualidade. Isso equivale a pedalar 61 km em uma e-bike ou usar um micro-ondas por mais de uma hora.

Pode-se dizer que os principais geradores de vídeo por IA, que criam vídeos deslumbrantes e hiper-realistas de até 30 segundos, usarão significativamente mais energia. Conforme esses geradores aumentam de tamanho, eles também adicionam funcionalidades que permitem ajustar elementos específicos dos vídeos e montar múltiplas cenas — tudo isso aumenta ainda mais a demanda energética.

Vale destacar que empresas de IA defendem esses números dizendo que a pegada gerada por vídeos IA é menor do que a de filmagens tradicionais, mas isso é difícil de verificar e não considera o aumento da geração de vídeos que pode ocorrer se essa tecnologia se tornar barata.

Tudo isso em um prompt do dia a dia.

O consumo diário de energia de um usuário

Imagine um dia típico para alguém que usa IA com frequência. Por exemplo, um corredor que organiza uma maratona beneficente e faz 15 perguntas a um modelo de IA sobre a melhor forma de arrecadar fundos. Depois, faz 10 tentativas para criar uma imagem para o flyer e três tentativas para um vídeo de cinco segundos para postar no Instagram.

Tudo isso consumiria cerca de 2,9 kWh de eletricidade — energia suficiente para percorrer mais de 160 km numa bicicleta elétrica, ou cerca de 10 km em um veículo elétrico médio, ou ainda para ligar um micro-ondas por mais de três horas e meia.

Aviso importante: esses números não refletem o consumo energético do ChatGPT 4o nem de modelos similares mais recentes, pois não se sabe o número exato de parâmetros, quais arquiteturas estão em uso nem como a OpenAI distribui as requisições entre seus data centers. Estimativas feitas até agora são muito aproximadas e podem até confundir mais do que ajudar.

“Devemos parar de tentar reverter números baseados em boatos”, diz Luccioni, “e exercer mais pressão sobre essas empresas para que realmente compartilhem os dados reais”. Luccioni criou o AI Energy Score, uma forma de avaliar os modelos quanto à eficiência energética. Mas empresas com código fechado precisam aderir voluntariamente. Poucas aderiram, segundo Luccioni.

Parte Três: combustível e emissões

Agora que temos uma estimativa da energia total necessária para rodar um modelo de IA para produzir textos, imagens e vídeos, podemos calcular o que isso significa em termos de emissões que causam mudanças climáticas.

Primeiro, um data center em funcionamento não é necessariamente algo ruim. Se todos os data centers fossem conectados a painéis solares e funcionassem apenas quando o sol brilhasse, o mundo falaria muito menos sobre o consumo de energia da IA. Mas esse não é o caso. A maioria das redes elétricas ao redor do mundo ainda depende fortemente de combustíveis fósseis. Portanto, o uso de eletricidade traz um custo ambiental relacionado ao clima.

“Data centers de IA precisam de energia constante, 24 horas por dia, 7 dias por semana, 365 dias por ano”, afirma Rahul Mewawalla, CEO da Mawson Infrastructure Group, que constrói e mantém data centers de alta energia para suporte à IA.

Isso significa que os data centers não podem depender de tecnologias intermitentes como energia eólica e solar e, em média, tendem a usar eletricidade mais poluente. Um estudo preliminar da Escola de Saúde Pública T.H. Chan de Harvard descobriu que a intensidade de carbono da eletricidade usada pelos data centers é 48% maior que a média dos EUA. Parte dessa razão é que os data centers estão atualmente concentrados em locais onde as redes são mais poluentes, como a região do Atlântico Médio, com forte uso de carvão, que inclui Virgínia, Virgínia Ocidental e Pensilvânia. Eles também operam constantemente, inclusive quando fontes mais limpas podem não estar disponíveis.

Empresas de tecnologia como Meta, Amazon e Google responderam à questão dos combustíveis fósseis ao anunciar metas para usar mais energia nuclear. Essas três se juntaram a um compromisso de triplicar a capacidade nuclear mundial até 2050. Mas hoje, a energia nuclear representa apenas 20% do fornecimento de eletricidade nos EUA e alimenta uma fração das operações dos data centers de IA — o gás natural responde por mais da metade da eletricidade gerada na Virgínia, que possui mais data centers do que qualquer outro estado americano, por exemplo. Além disso, novas operações nucleares levarão anos, talvez décadas, para se concretizarem.

Falhas no fornecimento de energia, combinadas com a pressa para construir data centers que alimentem a IA, frequentemente resultam em planos energéticos míopes. Em abril, o supercomputador X de Elon Musk, próximo a Memphis, foi identificado, por imagens de satélite, usando dezenas de geradores a gás metano que o Southern Environmental Law Center alega não serem aprovados pelos reguladores de energia para complementar a rede elétrica, violando a Lei do Ar Limpo.

A principal métrica usada para quantificar as emissões desses data centers é a intensidade de carbono: quantos gramas de dióxido de carbono são emitidos para cada quilowatt-hora de eletricidade consumida. Definir a intensidade de carbono de uma determinada rede exige entender as emissões produzidas por cada usina em operação, junto com a quantidade de energia que cada uma contribui para a rede a qualquer momento. Concessionárias, órgãos governamentais e pesquisadores utilizam estimativas médias de emissões e medições em tempo real para monitorar a poluição das usinas.

Essa intensidade varia amplamente entre regiões. A rede elétrica dos EUA é fragmentada, e a composição entre carvão, gás, renováveis ou nuclear varia muito. Por exemplo, a rede da Califórnia é muito mais limpa do que a da Virgínia Ocidental.

O horário do dia também é importante. Dados de abril de 2024 mostram que a rede da Califórnia pode oscilar entre menos de 70 gramas por quilowatt-hora à tarde, quando há muita energia solar disponível, até mais de 300 gramas por quilowatt-hora no meio da noite.

Essa variabilidade significa que a mesma atividade pode ter impactos climáticos muito diferentes, dependendo da localização e do horário da solicitação. Por exemplo, um corredor de maratona que solicita respostas de texto, imagem e vídeo consome cerca de 2,9 quilowatt-horas de eletricidade. Na Califórnia, gerar essa energia produziria em média cerca de 650 gramas de dióxido de carbono. Mas gerar essa energia na Virgínia Ocidental pode elevar o total para mais de 1.150 gramas.

IA na esquina

O que vimos até agora é que a energia necessária para responder a uma consulta pode ser relativamente pequena, mas pode variar bastante dependendo do tipo de consulta e do modelo utilizado. As emissões associadas a essa quantidade de eletricidade também dependem do local e do momento em que a consulta é processada. Mas qual é o resultado disso tudo?

Estima-se que o ChatGPT seja agora o quinto site mais visitado do mundo, logo após o Instagram e à frente do X. Em dezembro, a OpenAI informou que o ChatGPT recebe 1 bilhão de mensagens por dia, e após lançar um novo gerador de imagens em março, afirmou que as pessoas estavam criando 78 milhões de imagens por dia, desde retratos no estilo Studio Ghibli até fotos de si mesmas como bonecas Barbie.

É possível fazer um cálculo bem aproximado para estimar o impacto energético. Em fevereiro, a empresa de pesquisa em IA Epoch AI publicou uma estimativa de quanta energia é usada para uma única consulta no ChatGPT — uma estimativa que, como discutido, faz muitas suposições que não podem ser verificadas. Ainda assim, eles calcularam cerca de 0,3 watt-hora, ou 1.080 joules, por mensagem. Esse valor está entre nossas estimativas para os menores e maiores modelos Meta Llama (e especialistas consultados dizem que, se for o caso, o número real provavelmente é maior, não menor).

Um bilhão dessas consultas por dia durante um ano significaria mais de 109 gigawatts-hora de eletricidade, o suficiente para abastecer 10.400 casas nos EUA por um ano. Se adicionarmos imagens e pensarmos que gerar cada uma requer tanta energia quanto nossos modelos de imagem de alta qualidade, isso significaria mais 35 gigawatts-hora, suficiente para alimentar outras 3.300 casas por ano. Isso sem contar a demanda energética dos outros produtos da OpenAI, como geradores de vídeo, e de todas as outras empresas e startups de IA.

Mas aqui está o problema: essas estimativas não capturam o futuro próximo de como usaremos a IA. Nesse futuro, não vamos simplesmente fazer perguntas a modelos de IA algumas vezes ao dia ou pedir para gerar uma foto. Em vez disso, laboratórios de ponta estão nos levando a um mundo onde “agentes” de IA executam tarefas para nós sem que supervisionemos cada movimento.

Conversaremos com modelos por voz, conversaremos com companheiros de IA por duas horas diárias e apontaremos as câmeras do celular ao redor em modo vídeo. Daremos tarefas complexas aos chamados “modelos de raciocínio” que resolvem problemas lógicos, mas que demandam 43 vezes mais energia para problemas simples, ou a “modelos de pesquisa profunda” que passam horas criando relatórios para nós. Teremos modelos de IA “personalizados”, treinados com nossos dados e preferências.

Empresas como OpenAI planejam cobrar até 20 mil dólares por mês por agentes, e o DeepSeek popularizou o “racicínio em cadeia” que gera respostas de até nove páginas. IA será usada em atendimento ao cliente, consultórios médicos e muito mais, aumentando a parcela da IA no consumo energético nacional.

Todo pesquisador com quem conversamos disse que não podemos entender a demanda energética desse futuro apenas extrapolando o consumo atual das consultas de IA. De fato, as ações das principais empresas de IA de ativar usinas nucleares e criar data centers em escala inédita sugerem que a visão delas para o futuro consumirá muito mais energia do que o somatório dessas consultas individuais.

“Os poucos dados que temos podem lançar uma pequena luz sobre onde estamos agora, mas todas as apostas estão abertas para os próximos anos”, afirma Luccioni. “As ferramentas de IA generativa estão praticamente sendo empurradas goela abaixo, e está cada vez mais difícil desistir ou fazer escolhas informadas em relação à energia e ao clima.”

Para entender quanta energia essa revolução da IA vai demandar, e de onde ela virá, precisamos ler nas entrelinhas.

Parte Quatro: o futuro à frente

Um relatório publicado em dezembro pelo Lawrence Berkeley National Laboratory, financiado pelo Departamento de Energia dos EUA e com 16 prêmios Nobel, tentou medir o que a proliferação da IA pode significar para a demanda energética.

Ao analisar dados públicos e proprietários sobre data centers em geral, assim como as necessidades específicas da IA, os pesquisadores chegaram a uma conclusão clara. Os data centers nos EUA consumiram cerca de 200 terawatts-hora de eletricidade em 2024, aproximadamente o suficiente para abastecer a Tailândia por um ano. Os servidores dedicados à IA nesses data centers teriam consumido entre 53 e 76 terawatts-hora. No limite máximo, isso é suficiente para abastecer mais de 7,2 milhões de residências americanas durante um ano.

Se imaginarmos que a maior parte desse consumo foi usada para inferência, significa que a energia consumida pela IA nos EUA no ano passado permitiria que cada pessoa na Terra trocasse mais de 4.000 mensagens com chatbots. Na realidade, claro, usuários individuais médios não são responsáveis por toda essa demanda. Grande parte provavelmente é destinada a startups e gigantes da tecnologia testando seus modelos, usuários avançados explorando todas as funcionalidades e tarefas que demandam muita energia, como a geração de vídeos ou avatares.

Até 2028, estimam os pesquisadores, a energia destinada a finalidades específicas de IA aumentará para entre 165 e 326 terawatts-hora por ano. Isso é mais do que toda a eletricidade atualmente usada pelos data centers dos EUA para todas as finalidades; é suficiente para abastecer 22% dos lares americanos a cada ano. Esse consumo poderia gerar as mesmas emissões de uma viagem de carro de mais de 300 bilhões de milhas — mais de 1.600 idas e voltas do Sol até a Terra.

Os pesquisadores foram claros ao afirmar que a adoção da IA e das tecnologias aceleradas de servidores que a sustentam foram a principal força que fez a demanda por eletricidade dos data centers disparar, após permanecer estagnada por mais de uma década. Até 2028, a participação da eletricidade dos EUA destinada aos data centers pode triplicar, passando do atual 4,4% para 12%.

Esse aumento sem precedentes na demanda por energia para IA está alinhado com os anúncios das principais empresas. SoftBank, OpenAI, Oracle e a empresa de investimentos dos Emirados MGX planejam gastar US$ 500 bilhões nos próximos quatro anos em novos data centers nos EUA. A primeira já iniciou a construção em Abilene, Texas, com oito prédios, cada um do tamanho de um estádio de beisebol. Em resposta a um pedido de informações da Casa Branca, a Anthropic sugeriu que os EUA construíssem mais 50 gigawatts de energia dedicada até 2027.

Empresas de IA também planejam construções multigigawatts no exterior, incluindo na Malásia, que está se tornando o polo de data centers do Sudeste Asiático. Em maio, a OpenAI anunciou um plano para apoiar a expansão de data centers no exterior como parte de uma iniciativa para “expandir a IA democrática”. As empresas estão adotando abordagens variadas para isso, firmando acordos para novas usinas nucleares, reativando antigas e fechando contratos massivos com concessionárias de energia.

A MIT Technology Review buscou entrevistas com Google, OpenAI e Microsoft sobre seus planos para esse futuro e para dados específicos sobre a energia necessária para a inferência de modelos líderes de IA.

A OpenAI recusou-se a fornecer números ou disponibilizar alguém para entrevista, mas declarou que prioriza o uso eficiente dos recursos computacionais, colabora com parceiros para apoiar metas de sustentabilidade e que a IA pode ajudar a descobrir soluções climáticas. A empresa disse que os primeiros sites de sua iniciativa Stargate serão alimentados por gás natural e energia solar, e que buscará incluir energia nuclear e geotérmica sempre que possível.

A Microsoft falou sobre sua própria pesquisa para melhorar a eficiência da IA, mas não compartilhou detalhes de como essas abordagens são incorporadas em seus data centers.

O Google recusou-se a divulgar números sobre quanta energia é necessária no momento da inferência para seus modelos de IA como Gemini e recursos como AI Overviews. A empresa apontou para informações sobre suas TPUs, equivalente proprietário de GPUs do Google, e as eficiências conquistadas.

Os pesquisadores do Lawrence Berkeley fizeram uma crítica direta à situação atual, afirmando que as informações divulgadas por empresas de tecnologia, operadores de data centers, concessionárias de energia e fabricantes de hardware são insuficientes para fazer projeções razoáveis sobre a demanda inédita de energia desse futuro ou estimar as emissões que serão geradas.

Eles sugeriram formas pelas quais as empresas poderiam divulgar mais informações sem violar segredos comerciais, como acordos de compartilhamento de dados anonimizados, mas seu relatório reconheceu que os responsáveis por essa grande expansão dos data centers de IA até agora não foram transparentes, deixando-os sem as ferramentas necessárias para elaborar um plano.

“Além de limitar o escopo deste relatório, essa falta de transparência destaca que o crescimento dos data centers está ocorrendo com pouca consideração sobre como integrar melhor essas novas cargas à expansão da geração/transmissão de eletricidade ou ao desenvolvimento mais amplo das comunidades”, escreveram. Os autores também observaram que apenas outros dois relatórios desse tipo foram divulgados nos últimos 20 anos.

Conversamos com vários outros pesquisadores que afirmam que sua capacidade de entender as emissões e demandas energéticas da IA é prejudicada pelo fato de que a IA ainda não é tratada como um setor próprio. A Administração de Informação sobre Energia dos EUA, por exemplo, faz projeções e medições para manufatura, mineração, construção e agricultura, mas dados detalhados sobre IA simplesmente não existem.

Indivíduos podem acabar pagando parte da conta por essa revolução da IA, segundo uma nova pesquisa publicada em março. Os pesquisadores, da Electricity Law Initiative de Harvard, analisaram acordos entre companhias de energia e gigantes da tecnologia como Meta que regulam quanto essas empresas pagarão pela eletricidade em enormes centros de dados.

Eles descobriram que os descontos concedidos pelas concessionárias para as Big Tech podem elevar as tarifas de eletricidade pagas pelos consumidores. Em alguns casos, se certos centros de dados não atraírem os negócios de IA prometidos ou precisarem de menos energia do que o esperado, os consumidores ainda podem acabar subsidiando esses custos. Um relatório de 2024 da legislatura da Virgínia estimou que consumidores residenciais pagariam em média US$ 37,50 a mais por mês nos custos de energia desses centros.

“Não está claro para nós se os benefícios desses centros de dados compensam esses custos”, diz Eliza Martin, pesquisadora do Environmental and Energy Law Program em Harvard e coautora da pesquisa. “Por que deveríamos pagar por essa infraestrutura? Por que deveríamos arcar com as contas de energia deles?”.

Quando você pede a um modelo de IA para criar uma piada ou gerar um vídeo de um filhote, essa consulta gera um pequeno, mas mensurável, custo energético e uma quantidade associada de emissões liberadas na atmosfera. Considerando que cada solicitação individual geralmente consome menos energia do que usar um eletrodoméstico por alguns instantes, isso pode parecer insignificante.

Mini Banner - Assine a MIT Technology Review

Mas à medida que mais pessoas usam ferramentas de IA, esses impactos começam a se acumular. E, cada vez mais, você não precisa procurar para usar IA: ela está sendo integrada em todos os cantos da nossa vida digital.

Crucialmente, há muito que não sabemos; os gigantes da tecnologia mantêm silêncio sobre os detalhes. Mas, a julgar por nossas estimativas, fica claro que a IA está remodelando não apenas a tecnologia, mas a rede elétrica e o mundo ao nosso redor.

Último vídeo

Nossos tópicos