Uma consulta no seu aplicativo Gemini usa cerca de 0,24 watt-horas de eletricidade, segundo o Google divulgou recentemente. Isso é aproximadamente o mesmo que usar um micro-ondas por um segundo, algo que, para mim, parece virtualmente insignificante. Eu uso o eletrodoméstico por muito mais segundos do que isso na maioria dos dias.
Fiquei animado ao ver esse relatório ser publicado, e dou boas-vindas a mais transparência dos grandes players da IA sobre seu uso estimado de energia por consulta. Mas percebi que algumas pessoas estão pegando esse número e usando-o para concluir que não precisamos nos preocupar com a demanda de energia da IA. Essa não é a conclusão correta aqui. Vamos entender o motivo.
Este único número não reflete todas as consultas e deixa de fora casos que provavelmente usam muito mais energia.
O novo relatório do Google considera apenas consultas de texto. Análises anteriores, incluindo as reportagens da MIT Technology Review, sugerem que gerar uma foto ou vídeo normalmente consome mais eletricidade.
Quando conversei com Jeff Dean, o cientista-chefe do Google, ele disse que a empresa não tem planos atualmente para fazer esse tipo de análise para imagens e vídeos, mas que não descartaria a possibilidade.
A razão pela qual a empresa começou com prompts de texto é que esses são algo que muitas pessoas estão usando no seu dia a dia, diz ele, enquanto a geração de imagens e vídeos é algo que nem tantas pessoas estão fazendo. Mas eu estou vendo mais imagens e vídeos de IA por toda a minha rede social. Então, existe um mundo inteiro de consultas que não está representado aqui.
Além disso, essa estimativa é a mediana, o que significa que é apenas o número no meio da faixa de consultas que o Google está vendo. Perguntas e respostas mais longas podem aumentar a demanda de energia, e o mesmo pode acontecer ao usar um modelo de raciocínio. Não sabemos nada sobre quanto energia essas consultas mais complicadas demandam ou qual é a distribuição dessa faixa.
Não sabemos quantas consultas o Gemini está recebendo, então não sabemos o impacto total de energia do produto.
Uma das minhas maiores perguntas pendentes sobre o uso de energia do Gemini é o número total de consultas que o produto está recebendo a cada dia.
Esse número não está incluído no relatório do Google e a empresa não quis compartilhá-lo comigo. Deixe-me ser claro: eu realmente insisti com eles sobre isso, tanto em uma coletiva de imprensa que fizeram sobre a notícia quanto na minha entrevista com o Dean. A empresa me direcionou para um relatório recente de ganhos, que inclui apenas dados sobre usuários ativos mensais (450 milhões, para constar).
“Não estamos confortáveis em revelar isso por vários motivos,” disse Dean. O número total é uma medida abstrata que muda ao longo do tempo, ele diz, acrescentando que a empresa quer que os usuários pensem sobre o uso de energia por prompt.
Mas existem pessoas ao redor do mundo interagindo com essa tecnologia, não só eu, e o que todos nós somamos parece bastante relevante.
A OpenAI divulga publicamente o seu total, compartilhando recentemente que recebe 2,5 bilhões de consultas ao ChatGPT todos os dias. Então, para os curiosos, podemos usar isso como exemplo e pegar o uso médio de energia por consulta auto-relatado pela empresa (0,34 watt-horas) para ter uma ideia aproximada do total para todas as pessoas que estão fazendo prompts no ChatGPT.
De acordo com as minhas contas, ao longo de um ano, isso somaria mais de 300 gigawatt-horas, o equivalente a fornecer energia para quase 30.000 casas nos EUA anualmente. Quando você coloca dessa forma, começa a parecer muitos segundos no micro-ondas.
A IA está em todo lugar, não apenas em chatbots, e muitas vezes nem estamos conscientes disso.
Ela está tocando nossas vidas, mesmo quando não estamos procurando. Resumos de IA aparecem nas buscas da web, quer você peça por eles ou não. Existem recursos integrados em aplicativos de e-mail e mensagens de texto que podem redigir ou resumir mensagens para você.
A estimativa do Google é estritamente para os aplicativos Gemini e não incluiria muitas das outras maneiras que até mesmo essa única empresa está usando IA. Então, mesmo que você esteja tentando pensar sobre a sua própria demanda de energia, está se tornando cada vez mais difícil contabilizar.
Para ser claro, eu não acho que as pessoas deveriam se sentir culpadas por usar ferramentas que acham genuinamente úteis. E, no final das contas, eu não acho que a conversa mais importante seja sobre responsabilidade pessoal.
Há uma tendência agora de focar nos números pequenos, mas precisamos ter em mente o que tudo isso está somando. Mais de dois gigawatts de gás natural precisarão ser ativados na Louisiana, nos Estados Unidos, para alimentar um único data center da Meta nesta década. O Google Cloud está investindo US$ 25 bilhões em IA apenas na rede PJM na Costa Leste dos EUA. Até 2028, a IA pode representar 326 terawatt-horas de demanda de eletricidade do país anualmente, gerando mais de 100 milhões de toneladas métricas de dióxido de carbono.
Precisamos de mais relatórios dos principais players da IA, e o anúncio recente do Google é um dos mais transparentes até agora. Mas um pequeno número não anula as maneiras como essa tecnologia está afetando as comunidades e mudando nossa rede elétrica.