Há cerca de um ano, Xiao Li via uma enxurrada de negócios com chips da Nvidia no WeChat. Empreiteiro do setor imobiliário que se tornou gerente de projetos de datas centers, ele havia migrado para a infraestrutura de IA em 2023, atraído pelo entusiasmo da China com a Inteligência Artificial.
Naquela época, comerciantes em seu círculo se gabavam de conseguir remessas de GPUs de alto desempenho da Nvidia, sujeitas a restrições de exportação dos EUA. Muitas eram contrabandeadas por canais internacionais até Shenzhen. No auge da demanda, um único chip Nvidia H100 — essencial para o treinamento de modelos de IA — podia ser vendido por até 200 mil yuans (US$ 28 mil ou R$ 160.740,00) no mercado negro.
Agora, seu feed no WeChat e os grupos do setor contam uma história diferente. Os negociantes estão mais discretos em suas transações, e os preços voltaram à realidade. Enquanto isso, dois projetos de datas centers com os quais Li está familiarizado estão com dificuldades para garantir novos financiamentos de investidores, que preveem retornos fracos — forçando os responsáveis pelos projetos a vender GPUs excedentes. “Parece que todo mundo está vendendo, mas poucos estão comprando”, ele diz.
Há poucos meses, a construção de datas centers vivia seu auge, impulsionada por investidores públicos e privados. No entanto, muitas das instalações recém-construídas agora estão vazias. Segundo fontes ouvidas pela MIT Technology Review — incluindo empreiteiros, um executivo de uma empresa de servidores com GPUs e gerentes de projeto — a maioria das empresas que operam esses datas centers está lutando para se manter. Os veículos locais Jiazi Guangnian e 36Kr relatam que até 80% dos recursos computacionais recém-criados na China permanecem sem uso.
Alugar GPUs para empresas que precisam delas para treinar modelos de IA — o principal modelo de negócios da nova onda de datas centers — já foi considerado uma aposta certa. Mas, com a ascensão da DeepSeek e uma mudança repentina na economia da IA, o setor está vacilando.
“A dor do crescimento pela qual a indústria de IA da China está passando é, em grande parte, resultado de atores inexperientes — corporações e governos locais — que embarcaram na onda do hype, construindo instalações que não são ideais para as necessidades atuais,” diz Jimmy Goodrich, conselheiro sênior de tecnologia da RAND Corporation.
O resultado é que projetos estão fracassando, energia está sendo desperdiçada e os datas centers se tornaram “ativos problemáticos”, cujos investidores estão ansiosos para se desfazer a preços abaixo do mercado. A situação pode eventualmente levar à intervenção do governo, afirma ele: “É provável que o governo chinês intervenha, assuma o controle e os repasse para operadores mais capacitados.”
Um boom de construções caótico
Quando o ChatGPT explodiu em cena no final de 2022, a resposta na China foi rápida. O governo central designou a infraestrutura de IA como uma prioridade nacional, incentivando os governos locais a acelerar o desenvolvimento dos chamados centros de computação inteligente — um termo cunhado para descrever data centers voltados à IA.
Em 2023 e 2024, mais de 500 novos projetos de datas centers foram anunciados em locais que vão da Mongólia Interior a Guangdong, segundo a empresa de pesquisa de mercado KZ Consulting. De acordo com o Comitê de Datas centers da Associação da Indústria de Comunicações da China, uma associação do setor vinculada ao Estado, pelo menos 150 desses centros recém-construídos estavam concluídos e em operação até o final de 2024.
Empresas estatais, companhias de capital aberto e fundos ligados ao governo se apressaram para investir nesses projetos, na esperança de se posicionarem como líderes em Inteligência Artificial. Os governos locais os promoveram intensamente, esperando que estimulassem a economia e estabelecessem suas regiões como polos estratégicos de IA.
No entanto, à medida que esses projetos de construção caros continuam, a febre chinesa pelos grandes modelos de linguagem (LLMs) está perdendo força. Somente em 2024, mais de 144 empresas se registraram junto à Administração do Ciberespaço da China — o principal órgão regulador da internet do país — para desenvolver seus próprios LLMs. Ainda assim, segundo o Economic Observer, uma publicação chinesa, apenas cerca de 10% dessas empresas ainda estavam investindo ativamente em treinamento de modelos em larga escala até o final do ano.
O sistema político da China é altamente centralizado, com autoridades locais geralmente ascendendo na hierarquia por meio de nomeações regionais. Como resultado, muitos líderes locais priorizam projetos econômicos de curto prazo que geram resultados rápidos — frequentemente para ganhar prestígio junto aos superiores — em vez de focarem no desenvolvimento de longo prazo. Projetos de infraestrutura de grande porte e alto perfil há muito tempo são utilizados como ferramenta por autoridades locais para alavancar suas carreiras políticas.
A desaceleração econômica pós-pandemia apenas intensificou essa dinâmica. Com o setor imobiliário chinês — outrora a base das economias locais — em queda pela primeira vez em décadas, os governantes correram para encontrar novos motores de crescimento. Nesse ínterim, a outrora vibrante indústria da internet no país também entrava em um período de estagnação. Diante desse vácuo, a infraestrutura de IA tornou-se o novo estímulo preferencial.
“A IA parecia uma injeção de adrenalina”, diz Li. “Muito dinheiro que antes ia para o setor imobiliário agora está indo para os data centers de IA.”
Até 2023, grandes corporações — muitas delas com pouca ou nenhuma experiência prévia em Inteligência Artificial — começaram a firmar parcerias com governos locais para aproveitar a tendência. Algumas viam a infraestrutura de IA como uma forma de justificar a expansão dos negócios ou valorizar suas ações, afirma Fang Cunbao, gerente de projeto de data center baseado em Pequim. Entre essas empresas estavam nomes como Lotus, uma fabricante de glutamato monossódico (MSG), e Jinlun Technology, uma empresa têxtil — dificilmente associadas à tecnologia de IA de ponta.
Essa abordagem de corrida do ouro fez com que o impulso para construir data centers de IA fosse amplamente conduzido de cima para baixo, muitas vezes sem levar em conta a demanda real ou a viabilidade técnica, dizem Fang, Li e diversas fontes locais que pediram anonimato por medo de represálias políticas. Muitos projetos foram liderados por executivos e investidores com conhecimento limitado em infraestrutura de IA, afirmam eles. Na pressa para acompanhar a tendência, muitos centros foram construídos de forma apressada e ficaram aquém dos padrões da indústria.
“Reunir todos esses grandes clusters de chips é um exercício extremamente difícil, e há pouquíssimas empresas ou indivíduos que sabem fazer isso em escala”, diz Goodrich. “Tudo isso é engenharia computacional de ponta. Ficaria surpreso se a maioria desses players menores soubesse como fazer. Muitos dos data centers recém-construídos foram montados às pressas e não oferecem a estabilidade que uma empresa como a DeepSeek desejaria.”
Para piorar a situação, os líderes de projeto frequentemente confiaram em intermediários e corretores — alguns dos quais exageraram previsões de demanda ou manipularam processos de aquisição para embolsar subsídios do governo, segundo fontes.
Ao final de 2024, o entusiasmo que antes cercava o boom dos data centers na China começou a se transformar em decepção. O motivo é simples: o aluguel de GPUs deixou de ser um negócio particularmente lucrativo.
O acerto de contas com a DeepSeek
O modelo de negócios dos data centers é, em teoria, simples: eles lucram alugando clusters de GPU para empresas que precisam de capacidade computacional para treinar modelos de IA. Na prática, porém, está sendo difícil garantir clientes. Apenas algumas das maiores empresas de tecnologia da China estão, atualmente, utilizando intensivamente poder de computação para treinar seus modelos. Muitos players menores têm desistido do pré-treinamento de seus modelos ou mudado de estratégia desde a ascensão da DeepSeek, que causou furor na internet com o R1 — seu modelo de raciocínio open source que iguala o desempenho do ChatGPT o1, mas foi construído a uma fração do custo.
“A DeepSeek representa um momento de acerto de contas para a indústria chinesa de IA. A grande questão deixou de ser ‘Quem pode criar o melhor modelo de linguagem?’ e passou a ser ‘Quem pode usá-los melhor?’”, afirma Hancheng Cao, professor assistente de sistemas de informação na Universidade Emory.
A ascensão de modelos de raciocínio como o R1 da DeepSeek e os modelos ChatGPT o1 e o3 da OpenAI também mudou o que as empresas buscam em um data center. Com essa tecnologia, a maior parte da demanda computacional vem da realização de deduções lógicas passo a passo em resposta às consultas dos usuários — e não do processo de treinamento e criação do modelo em si. Esse processo de raciocínio costuma gerar resultados melhores, mas leva significativamente mais tempo. Como consequência, o hardware com baixa latência (o tempo que os dados levam para trafegar de um ponto a outro da rede) torna-se essencial. Os data centers precisam estar localizados próximos aos principais polos tecnológicos para minimizar atrasos na transmissão e garantir acesso a equipes altamente qualificadas de operação e manutenção.
Essa mudança faz com que muitos data centers construídos nas regiões central, oeste e rural da China — onde eletricidade e terrenos são mais baratos — estejam perdendo seu apelo para as empresas de IA. Em Zhengzhou, uma cidade na província natal de Li, Henan, um data center recém-construído está até distribuindo vouchers gratuitos de computação para empresas locais de tecnologia, mas ainda assim enfrenta dificuldades para atrair clientes.
Além disso, muitos dos novos data centers que surgiram nos últimos anos foram otimizados para cargas de trabalho de pré-treinamento — cálculos extensos e contínuos realizados sobre conjuntos massivos de dados — e não para inferência, o processo de executar modelos de raciocínio já treinados para responder em tempo real às entradas dos usuários. O hardware ideal para inferência é diferente do tradicionalmente usado para treinamento em larga escala de IA.
GPUs como a Nvidia H100 e A100 são projetadas para processamento massivo de dados, priorizando velocidade e capacidade de memória. Mas, à medida que a IA avança para o raciocínio em tempo real, a indústria passa a buscar chips mais eficientes, responsivos e com melhor custo-benefício. Mesmo um pequeno erro de cálculo nas necessidades de infraestrutura pode tornar um data center inadequado para as tarefas exigidas pelos clientes.
Nessas circunstâncias, o preço de aluguel de GPUs caiu para o nível mais baixo da história. Um relatório recente do veículo de mídia chinês Zhineng Yongxian informou que um servidor Nvidia H100 configurado com oito GPUs agora é alugado por 75 mil yuans por mês (quase R$ 60.300,00), abaixo dos picos de cerca de 180 mil (aproximadamente R$ 144.700,00). Alguns data centers preferem deixar suas instalações ociosas a correr o risco de perder ainda mais dinheiro, já que são muito caros de operar, diz Fan: “A receita de operar apenas uma pequena parte do data center simplesmente não cobriria os custos de eletricidade e manutenção.”
“É paradoxal — a China enfrenta os custos de aquisição mais altos para chips da Nvidia, mas os preços de aluguel de GPUs estão extraordinariamente baixos”, diz Li. Há um excesso de poder computacional, especialmente nas regiões central e oeste da China, mas, ao mesmo tempo, há escassez de chips de última geração.
No entanto, nem todos os intermediários estavam interessados em lucrar diretamente com os data centers desde o início. Em vez disso, muitos estavam de olho, desde sempre, em explorar os benefícios oferecidos pelo governo. Alguns operadores aproveitam o setor para obter eletricidade verde subsidiada, conseguindo licenças para gerar e vender energia, segundo Fang e reportagens de veículos chineses. Em vez de usarem essa energia em cargas de trabalho de IA, eles a revendem para a rede elétrica com lucro.
Em outros casos, empresas adquirem terrenos para o desenvolvimento de data centers apenas para se qualificarem para empréstimos e créditos subsidiados pelo Estado, deixando as instalações ociosas, mas ainda assim colhendo os benefícios do financiamento público, segundo o veículo local Jiazi Guangnian.
“Perto do final de 2024, nenhum empreiteiro ou intermediário com juízo no mercado ainda entraria nesse negócio esperando rentabilidade direta”, afirma Fang. “Todo mundo com quem conversei está usando o acordo de data center como alavanca para conseguir outra coisa que o governo possa oferecer.”
Um mal necessário
Apesar da subutilização dos data centers, o governo central da China continua apostando fortemente na expansão da infraestrutura de IA. No início de 2025, realizou um simpósio da indústria de IA destacando a importância da autossuficiência nessa tecnologia.
Grandes empresas de tecnologia chinesas estão atentas e fazendo investimentos alinhados a essa prioridade nacional. O Alibaba Group anunciou planos de investir mais de US$ 50 bilhões (equivalente a R$ 293.240.000,00) em computação em nuvem e infraestrutura de hardware para IA nos próximos três anos, enquanto a ByteDance planeja investir cerca de US$ 20 bilhões (ou R$ 117.296.000,00) em GPUs e data centers.
Enquanto isso, empresas nos Estados Unidos estão seguindo o mesmo caminho. Grandes companhias de tecnologia, incluindo OpenAI, Softbank e Oracle, uniram forças para apoiar a iniciativa Stargate, que planeja investir até US$ 500 bilhões (ou R$ 2.932.400.000,00) nos próximos quatro anos na construção de data centers avançados e infraestrutura de computação.
Dada a competição em inteligência artificial entre os dois países, especialistas afirmam que é improvável que a China reduza seus esforços. “Se a IA generativa for a tecnologia decisiva, a infraestrutura será o fator determinante do sucesso”, afirma Jimmy Goodrich, conselheiro de políticas tecnológicas da RAND.
“O governo central chinês provavelmente verá [os data centers subutilizados] como um mal necessário para desenvolver uma capacidade importante, uma espécie de dor do crescimento. Existem os projetos fracassados e os ativos problemáticos, e o Estado vai consolidar e limpar tudo. Eles enxergam o fim, não os meios”, afirma Goodrich.
A demanda por chips da Nvidia continua alta, especialmente pelo chip H20, projetado sob medida para o mercado chinês. Uma fonte do setor, que pediu anonimato por política interna de sua empresa, confirmou que o H20 — um modelo mais leve e rápido, otimizado para inferência em IA — é atualmente o chip Nvidia mais popular, seguido pelo H100, que continua a chegar à China mesmo com as restrições oficiais de venda impostas pelas sanções dos EUA. Parte da nova demanda é impulsionada por empresas que estão implantando suas próprias versões dos modelos open-source da DeepSeek.
Por enquanto, muitos data centers na China permanecem em um estado de limbo — construídos para um futuro que ainda não chegou. Se eles encontrarão uma nova finalidade, ainda é incerto. Para Fang Cunbao, o sucesso da DeepSeek se tornou um momento de virada, lançando dúvidas sobre a suposição de que uma expansão interminável da infraestrutura de IA garante progresso.
Isso é apenas um mito, ele percebe agora. No início deste ano, Fang decidiu abandonar completamente o setor de data centers. “O mercado está caótico demais. Os primeiros a entrar lucraram, mas agora são só pessoas tentando explorar brechas nas políticas públicas”, afirma. Ele decidiu migrar para a área de educação em IA.