A combinação entre a explosão recente de investimentos em Inteligência Artificial (IA) e a concentração da infraestrutura em poucas empresas levou bancos centrais e reguladores a falarem abertamente sobre o risco de bolha nos ativos ligados ao setor. O Banco Central Europeu, por exemplo, alertou, em 2024, no seu Financial Stability Review, para a possibilidade de uma bolha especulativa em ações relacionadas à IA, chamando a atenção para a dependência crescente dos mercados de um pequeno grupo de grandes empresas de tecnologia listadas principalmente nos Estados Unidos.
Mais recentemente, o Fundo Monetário Internacional e o Banco da Inglaterra passaram a falar em risco de correções bruscas, caso as promessas econômicas da IA não se materializem na velocidade esperada, traçando paralelos explícitos com a bolha pontocom. Até executivos de grandes empresas do setor, como o CEO do Google, reconheceram publicamente um certo grau de “irracionalidade” nos níveis atuais de gasto em IA, comparando o momento a outros ciclos de euforia tecnológica.
Mais do que um caso isolado de uma empresa “queimando caixa”, a trajetória recente da OpenAI sintetiza essa lógica. A companhia projeta encerrar 2025 com receita em torno de US$ 13 bilhões, impulsionada por assinaturas do ChatGPT e pelo uso de suas APIs, mas continua operando no vermelho, e estima acumular cerca de US$ 44 bilhões em perdas até 2029, ano em que espera alcançar lucratividade, segundo reportagens de veículos como o Financial Times, baseadas em documentos apresentados a investidores.
Os dados disponíveis indicam que a maior parte das despesas se concentra em pesquisa e desenvolvimento, infraestrutura de nuvem, aquisição de chips e remuneração em ações, com um burn rate de bilhões de dólares por semestre. Não se trata, portanto, de mero “descontrole financeiro”, mas de uma espécie de política industrial privada: investidores aceitam prejuízos prolongados para erguer infraestruturas de IA quase insubstituíveis, capazes de gerar rendas em regime de oligopólio lá na frente.
Ecoa, de certo modo, as leituras de Maria da Conceição Tavares sobre o capitalismo financeirizado: não é irracionalidade pura, mas uma aposta calculada em ativos que concentram poder e renda, agora na forma de data centers, modelos gigantes e chips raros financiados por um circuito global de capitais em busca de domínio tecnológico futuro.
À primeira vista, tudo isso pode soar apenas como uma aposta agressiva no crescimento futuro: investidores pacientes, dispostos a perder dinheiro hoje para ganhar mais amanhã. Mas quando tiramos os óculos do balanço e colocamos as lentes dos estudos sociais, da ciência e da tecnologia, o quadro muda de escala. Langdon Winner diria que estamos diante de artefatos com política: esses data centers, chips e modelos gigantes não são só infraestrutura neutra; são máquinas de reorganizar o poder econômico e cognitivo em torno de um punhado de empresas.
Sheila Jasanoff ajuda a decodificar o imaginário por trás dessa corrida, a ideia de que o futuro da economia depende de “plataformas de IA” tão centrais a ponto de justificar a queima de dezenas de bilhões agora para dominar o horizonte tecnológico de amanhã. Andrew Feenberg lembraria, por fim, que nada nisso é inevitável: esse desenho técnico traduz uma escolha por uma racionalidade de mercado levada ao limite, em que o próprio acesso à infraestrutura da inteligência passa a oscilar ao sabor do humor de investidores globais.
Quando colocamos tudo isso junto, a “bolha de IA” deixa de ser apenas uma curiosidade de mercado financeiro e passa a ser um problema sociotécnico: se a continuidade dessa infraestrutura depende de expectativas de lucro que podem mudar de um trimestre para o outro, então a própria fronteira da pesquisa em IA quais modelos existem, quem tem acesso, quais problemas são priorizados fica refém de ciclos de euforia e correção. É a partir desse ponto que a posição do Brasil se torna especialmente delicada: um país que, em grande medida, consome infraestrutura e serviços de IA produzidos fora, mas tem pouca influência sobre as decisões que afetam a estabilidade desses sistemas.
Fronteira terceirizada: a pesquisa em IA brasileira na era das big techs
Se, no plano global, a infraestrutura de IA vem sendo erguida como uma espécie de política industrial privada das big techs, no Brasil, essa obra aparece no lugar mais prosaico possível: o dia a dia de laboratório. É ali que doutorandos e pós-docs rodam experimentos em nuvens estrangeiras, torcem por créditos “promocionais” de grandes plataformas, negociam acesso a GPUs em parcerias com laboratórios corporativos e encaixam projetos em chamadas de fomento desenhadas para “aproveitar a onda” da IA. A mesma bolha que infla o setor global é a que viabiliza, hoje, boa parte da infraestrutura computacional usada pela pesquisa brasileira, e, portanto, interfere diretamente no experimento que cabe no orçamento, na pergunta de pesquisa que é viável e em quem consegue, de fato, trabalhar na fronteira.
No papel, o país tenta transformar esse cenário em um projeto de Estado. A Estratégia Brasileira de Inteligência Artificial (EBIA), de 2021, desenha nove eixos e 74 ações para “potencializar o desenvolvimento e a utilização da IA”, com promessa de fortalecer a pesquisa. Em 2024, o Plano Brasileiro de Inteligência Artificial (PBIA) 2024–2028, IA para o Bem de Todos, previu R$ 23 bilhões em quatro anos para formar pessoas, financiar projetos e montar infraestrutura de alto desempenho, de centros de dados públicos a modelos em português treinados com dados nacionais. Na prática, porém, uma fatia relevante desse dinheiro depende justamente de arranjos com o setor privado, e de um clima em que a IA continue sendo tratada como aposta certa de crescimento. Ou seja: a saída nacional para garantir infraestrutura de pesquisa conversa, o tempo todo, com a mesma lógica que produziu a bolha.
A contradição aparece rapidamente quando olhamos para o chão das universidades. Em maio de 2025, ABC e SBPC divulgaram uma nota pública criticando a decisão do governo de liberar, no fim do ano, apenas um terço dos recursos das federais, alertando que isso compromete diretamente a pesquisa científica. Mais de 90% da produção científica do país nasce em universidades públicas; qualquer corte generalizado acerta em cheio os mesmos laboratórios que o PBIA pretende mobilizar para desenvolver IA. Num cenário em que falta dinheiro até para pagar gente, manter servidores ligados e consertar máquinas, a escolha “racional” de muitos grupos é abandonar o cluster local e migrar para a nuvem, isto é, para a mesma infraestrutura, privada e concentrada, inflada pela bolha global.
É nesse ponto que o vocabulário de pesquisadores brasileiros e latino-americanos ajuda a dar nome ao que está acontecendo. No livro Colonialismo de dados: como opera a trincheira algorítmica na guerra neoliberal (em coautoria com Joyce Souza e João Cassino), e em textos como “Neocolonialismo ou imperialismo de dados? As novas veias abertas da América Latina?”, Sérgio Amadeu da Silveira descreve um colonialismo digital em que infraestruturas e modelos de negócio extraem riqueza e informação da região, mantendo o controle tecnológico fora do território.
Em entrevistas, ele lembra que praticamente toda a produção acadêmica das universidades brasileiras hoje está guardada em serviços de Google e Microsoft, e que até dados estratégicos do setor público circulam em nuvens sob jurisdição estrangeira. Isso não é um detalhe de TI: grupos de IA dependem dessas mesmas contas institucionais para guardar bases, compartilhar códigos, treinar modelos, enquanto um estudo de pesquisadores da USP e da UnB sobre contratação de tecnologia da informação no setor público estima que o Estado brasileiro já gastou ao menos R$ 23 bilhões em tecnologia estrangeira, dinheiro que poderia financiar data centers nacionais ou um ano de bolsas para todos os pós-graduandos do país. Na prática, a agenda de pesquisa passa a girar em torno do que essas infraestruturas facilitam: o uso de APIs proprietárias, experimentos em plataformas fechadas, aplicações desenhadas para se encaixarem em ecossistemas de big tech, em vez de modelos, dados e ferramentas sob controle público.
Paola Ricaurte, em textos como “Inteligencia artificial y la imaginación feminista descolonial”, publicado na coletânea Inteligencia Artificial Feminista: hacia una agenda de investigación para América Latina y el Caribe, recupera a noção de colonialidade do poder para insistir em três perguntas simples e incômodas: quem coleta dados de quem, para quê e com quais efeitos sobre as desigualdades históricas. Transposta para o contexto brasileiro, essa chave expõe um paradoxo: projetos de IA financiados com dinheiro público que, na prática, reforçam a dependência de plataformas globais. Laboratórios universitários “inovam” plugando serviços de nuvem importados em bases de dados locais, mas raramente têm força para disputar regras de uso, de governança ou de propriedade dos sistemas que ajudam a treinar.
No limite, a pesquisa em IA no Brasil, hoje, acontece em um terreno alugado: universidades e institutos trabalham sobre infraestruturas, contratos e prioridades definidos fora do país, tentando, ao mesmo tempo, manter agendas próprias e responder a editais e parcerias que falam a língua das big techs.
Quem pode desligar a fronteira?
E se a bolha estourar? Experiências recentes já dão pistas sobre quem realmente governa essa fronteira. Amazon, IBM e Microsoft vêm fechando ou enxugando laboratórios de IA no Brasil e na América Latina em meio a ajustes estratégicos e geopolíticos, decisões tomadas a milhares de quilômetros de distância, mas com efeito imediato sobre grupos de pesquisa locais. Em um cenário de correção forte, é razoável esperar cortes em programas de créditos de nuvem, redução de parcerias acadêmicas, fim de linhas “experimentais” de P&D corporativo e uma disputa mais dura por recursos públicos. Para grupos de pesquisa brasileiros que hoje dependem dessa infraestrutura e desse dinheiro, isso significaria, na prática, perda súbita de acesso a computes, interrupção de projetos e ainda mais dificuldade para sustentar agendas próprias de longo prazo.
Ler a onda atual de IA como uma possível bolha não é um exercício de futurologia catastrofista. É apenas reconhecer que a infraestrutura sobre a qual essa tecnologia se apoia, como chips, data centers, modelos e dados, está sendo organizada segundo uma lógica financeira de altíssimo risco, guiada por expectativas de retorno que mudam ao sabor do mercado. Quando essa infraestrutura passa a ser tratada como política industrial privada das big techs, países como o Brasil são empurrados para o papel de inquilinos: alugam acesso à fronteira, mas não participam, de fato, do desenho das regras do jogo.
Se deixarmos que a lógica da bolha dite a agenda, o futuro da pesquisa em IA no Brasil tende a ser estreito. Projetos passam a ser avaliados principalmente pela capacidade de turbinar a produtividade de curto prazo; ecossistemas se organizam em torno de créditos de nuvem e APIs proprietárias; universidades são empurradas para o papel de fornecedoras de mão de obra qualificada e de dados baratos. Nessa configuração, até políticas bem-intencionadas, como estratégias nacionais de IA ou fundos para data centers, correm o risco de reforçar exatamente a dependência que pretendiam combater, financiando infraestruturas que permanecem sob controle externo e, de quebra, normatizando o uso de caixas-pretas algorítmicas no próprio fazer científico.
Um caminho diferente começa por tratar a infraestrutura de IA como uma questão de projeto de país, não como um contrato corporativo.
Isso implica articular, de forma explícita, pelo menos três camadas:
(1) financiamento estável para a ciência pública, sem universidades operando em modo de emergência;
(2) construção de capacidades próprias de infraestrutura, inclusive consórcios públicos e cooperativos capazes de operar clusters, repositórios e modelos abertos;
(3) políticas de dados que tratem informação como bem comum, e não apenas como insumo para modelos privados.
Isso tudo exige colocar a governança no centro das discussões sobre a fronteira tecnológica. Em vez de medir o sucesso apenas pelo volume de investimento ou pelo número de startups, é possível adotar critérios que incluam a redução de desigualdades, o fortalecimento de serviços públicos, a ampliação das capacidades científicas locais e a participação social no desenho de políticas de dados e de IA. Essa mudança de foco dialoga diretamente com o debate sobre uma estratégia nacional de soberania tecnológica: falar em “soberania” não pode ser apenas garantir infraestrutura no território, mas também decidir quem senta à mesa para definir prioridades, limites e responsabilidades.
O desafio não é apenas regular big techs à distância, e sim coordenar, sem excluir, uma constelação de atores muito distintos: universidades públicas, institutos de pesquisa, órgãos de Estado, movimentos sociais, povos indígenas e comunidades tradicionais, pequenas empresas, desenvolvedores independentes. Não há soberania tecnológica se continuarmos a embalar em linguagem de “IA para o desenvolvimento” a mesma estrutura de dependência que organizou ciclos anteriores de inovação, agora atualizada até o nível da integridade da própria ciência e das formas de participação política em torno dela.
Resumo
A bolha de investimentos em IA, a dependência de big techs e os cortes na ciência pública expõem a fragilidade da pesquisa em IA no Brasil e desafiam sua governança.
Nina da Hora é pesquisadora na interseção entre ética e Inteligência Artificial, atualmente aprofunda sua expertise por meio de um mestrado em Ética em Visão Computacional na Universidade Estadual de Campinas (Unicamp), reconhecida como a segunda melhor universidade da América Latina. Sua pesquisa, sob a orientação da professora Sandra Avila, concentra-se em explorar e mitigar vieses em tecnologias de reconhecimento facial.


