Do ciclo de hype ao ciclo de infraestrutura
A primeira onda de investimento em AI generativo foi caracterizada por entusiasmo indiscriminado — empresas viram valorizações aumentarem simplesmente por incluir AI em um comunicado à imprensa. A Goldman Sachs Research argumenta que esta fase está terminando, substituída por algo mais seletivo e fundamentado em realidades físicas.
Os analistas da empresa descrevem uma dinâmica de fuga para a qualidade em que investidores sofisticados estão deslocando a atenção para a camada fundamental da economia de AI: data centers e o hardware computacional que os preenche. O raciocínio é direto. As capacidades do modelo continuarão a melhorar, as aplicações virão e irão, mas a infraestrutura física necessária para treinar e servir esses modelos é uma necessidade absoluta cuja disponibilidade é limitada pela energia disponível e cronogramas de construção que não podem ser comprimidos apenas por avanços em software.
Os números por trás da mudança
Goldman Sachs estima que as cargas de trabalho de AI representarão aproximadamente 30% da capacidade total de data center dentro de dois anos, com base em planos de despesas de capital anunciados por hyperscalers que representam centenas de bilhões de dólares em nova construção.
A dimensão energética é ainda mais marcante. A empresa estima que a demanda global de energia de data center pode aumentar aproximadamente 175% até 2030 em comparação com os níveis de 2023, impulsionada predominantemente pela intensidade energética do treinamento e inferência de AI. Esse aumento apenas seria aproximadamente equivalente a adicionar o consumo de eletricidade de uma economia global entre as dez principais à rede. Esta não é uma consideração de fundo para a estratégia de AI — é uma restrição principal que já está moldando onde e quão rápido o desenvolvimento pode prosseguir.
Restrições de infraestrutura remodelam a estratégia
Construir um data center de AI em larga escala não é simplesmente uma questão de capital. A terra deve ser adquirida e zoneada perto de energia confiável. As conexões da rede devem ser negociadas com utilitários que podem exigir prazos de múltiplos anos para expandir a capacidade de transmissão. Os grandes transformadores de potência se tornaram um verdadeiro gargalo; os prazos se estenderam a dois ou mais anos em alguns mercados, limitados pela capacidade de manufatura limitada e demanda competitiva da construção de energia renovável.
A seleção de sites consequentemente se tornou uma função estratégica nas principais empresas de AI. As localizações remotas com acesso a energia hidrelétrica ou geotérmica, temperaturas ambientes mais frias e fibra de alta capacidade existente são agora ativos genuinamente escassos. A concentração geográfica da computação de AI reflete a aglomeração de condições favoráveis de infraestrutura.
A implicação para o investimento
Para investidores, a análise do Goldman Sachs aponta para um padrão de ciclos de computação anteriores. Durante a construção da internet, as empresas que possuíam cabos físicos e data centers capturaram receitas estáveis enquanto empresas de camada de aplicação experimentaram ciclos voláteis. Uma dinâmica similar pode estar se formando em AI.
Operadores de data center, empresas de utilitários que atendem campuses de AI, especialistas em tecnologia de resfriamento e fabricantes de hardware de rede estão mais próximos da base de infraestrutura do que a maioria das empresas de software de AI. A empresa observa que provedores de nuvem hyperscale, apesar de suas enormes capitalizações de mercado, são principalmente negócios de infraestrutura quando analisados por onde seu capital é realmente implantado.
O trunfo da energia
Goldman identifica a energia como a variável mais provável de se tornar vinculante antes da capacidade de computação. A infraestrutura de energia existente não foi construída para acomodar as taxas de crescimento projetadas para AI. As concessionárias estão investindo em expansão da rede, mas a aprovação regulatória e cronogramas de construção significam que a nova geração e capacidade de transmissão fica para trás em relação à demanda por anos.
Isso já está impulsionando empresas de AI a explorar soluções não convencionais: acordos de compra de energia nuclear, geração dedicada de gás natural e armazenamento de bateria de longa duração colocado junto com data centers. A questão da energia não é mais periférica à estratégia de AI — pode muito bem ser o fator determinante de quais empresas podem escalar e quais não podem.




