Um executivo de destaque em IA apresenta o caso contra a tese da desaceleração
Mustafa Suleyman argumenta que a inteligência artificial está longe de esgotar sua trajetória de crescimento. Em um novo ensaio publicado pela
MIT Technology Review
, o chefe de IA da Microsoft diz que as previsões repetidas de que o desenvolvimento da IA logo vai bater em um muro ignoram a escala e a estrutura da expansão de compute que hoje impulsiona o setor. Sua tese central é direta: a explosão de compute por trás da IA de fronteira continua sendo a história tecnológica definidora da era, e os vetores subjacentes ainda têm espaço para se compor.O ensaio é explicitamente uma argumentação, e não um relatório neutro da indústria, mas é notável porque vem de uma figura sênior de uma das empresas mais diretamente investidas em infraestrutura de IA. A posição de Suleyman é que os céticos continuam procurando um único gargalo, como uma Lei de Moore mais lenta, dados limitados ou restrições de energia, enquanto deixam de perceber como vários avanços técnicos estão convergindo ao mesmo tempo.
A escala da afirmação sobre compute
Suleyman diz que a quantidade de computação de treinamento usada em modelos de IA de fronteira aumentou cerca de um trilhão de vezes dos sistemas iniciais até os maiores modelos de hoje. Ele descreve a mudança de cerca de 10^14 operações de ponto flutuante nos primeiros anos do seu trabalho, em 2010, para mais de 10^26 FLOPS nos sistemas de fronteira atuais. Independentemente de alguém aceitar todas as implicações dessa comparação, o ponto que ele está fazendo é claro: o progresso da IA foi impulsionado por um salto histórico na quantidade de computação colocada a serviço do treinamento.
Esse enquadramento importa porque desloca a discussão de noções abstratas de inteligência e a devolve à capacidade industrial. Nessa visão, o progresso da IA não é principalmente uma história de descobertas algorítmicas isoladas. É uma história de sistemas cada vez mais vastos, capazes de manter mais processadores ocupados, com mais dados fluindo por eles de forma mais eficiente e por períodos mais longos.
Três pilares técnicos no argumento de Suleyman
O ensaio identifica três avanços que, segundo ele, agora estão funcionando juntos. O primeiro é o aumento do desempenho bruto dos chips. Ele aponta para o hardware da Nvidia, que teria evoluído de 312 teraflops em 2020 para 2.500 teraflops hoje, um aumento de oito vezes em seis anos. Ele também cita o chip Maia 200 da Microsoft, lançado em janeiro, que segundo ele entrega 30% melhor desempenho por dólar do que qualquer outro hardware da frota da empresa.
O segundo é a largura de banda da memória. Suleyman destaca a memória de alta largura de banda, ou HBM, e diz que a geração mais recente, HBM3, triplica a largura de banda da sua predecessora. Na prática, o argumento dele é que os sistemas de treinamento estão ficando melhores não só em fazer cálculos, mas também em alimentar processadores rápido o suficiente para evitar que aceleradores caros fiquem ociosos esperando dados.
O terceiro é a interconexão em larga escala. Tecnologias como NVLink e InfiniBand, escreve ele, agora conectam centenas de milhares de GPUs em supercomputadores do tamanho de armazéns que funcionam como um único sistema. Essa é uma parte central da tese do ensaio. A história não é apenas “chips melhores”. É também a engenharia de tecidos de compute cada vez maiores, que reduzem tempo desperdiçado e coordenam enormes quantidades de processadores em conjunto.
Por que o ensaio importa mesmo sendo um texto opinativo
O argumento de Suleyman entra no meio de um debate ativo. Críticos de IA e alguns pesquisadores questionaram se as tendências atuais de scaling podem continuar de forma econômica ou física. As preocupações normalmente se concentram em demanda de energia, intensidade de capital, escassez de dados e retornos decrescentes de simplesmente tornar os modelos maiores. Suleyman não descarta essas preocupações uma a uma; ele argumenta que elas ainda não superam a força combinada das melhorias em chips, dos avanços em memória e da integração de sistemas.
Essa posição é importante porque decisões grandes de planejamento de infraestrutura estão sendo tomadas agora. Se o setor acredita que a curva de compute ainda é íngreme, hyperscalers, projetistas de chips e governos têm mais chances de continuar investindo em escala extraordinária. Se acreditam que um muro duro está próximo, a alocação de capital muda. O ensaio, portanto, não é apenas descritivo. Ele faz parte da disputa para definir que tipo de futuro as empresas de IA devem construir.
Ele também reflete como a indústria de IA cada vez mais enquadra o progresso em termos de sistemas. O desempenho por chip importa, mas largura de banda, rede e coordenação de software também importam. O resultado prático é que a liderança em IA está se tornando inseparável de cadeias de suprimento, do design de data centers e da capacidade de integrar hardware em uma infraestrutura de treinamento coerente.
As forças e os limites do argumento
A força do argumento de Suleyman é que ele não depende de um único avanço mágico. Ele enfatiza ganhos de engenharia compostos em várias camadas da pilha. É muitas vezes assim que grandes mudanças tecnológicas mantêm o impulso por mais tempo do que o esperado. Gargalos em uma área podem ser parcialmente compensados quando várias camadas vizinhas melhoram juntas.
O limite é que um ensaio de opinião não é o mesmo que prova de que a melhoria exponencial continuará indefinidamente. O artigo argumenta que a tendência “parece bastante previsível” quando o quadro técnico completo é considerado, mas trajetórias de longo prazo ainda dependem de economia, disponibilidade de energia, restrições de oferta e do valor que os clientes acabam extraindo de sistemas maiores. Suleyman está defendendo uma tese forte a favor de continuar escalando, não encerrando o debate.
Um sinal útil de confiança do setor
Ainda assim, o ensaio é um sinal útil. Ele mostra que um dos principais executivos do setor está defendendo publicamente não a moderação, mas a confiança contínua no esforço de infraestrutura por trás da IA de fronteira. A confiança não é apresentada em termos místicos. Ela é ancorada em teraflops, largura de banda e interconexões. Isso, por si só, diz algo importante sobre a fase atual da indústria.
Por toda a fascinação pública com chatbots e agentes, o centro de gravidade da IA continua sendo o compute. O ensaio de Suleyman lembra que a batalha estratégica ainda está sendo travada nas camadas profundas do hardware e dos sistemas. Se ele estiver certo, o setor ainda está no começo de uma expansão muito maior. Se estiver errado, os próximos anos vão expor os limites. De qualquer forma, o texto captura a mentalidade das empresas que estão construindo a era da IA: elas não acreditam que o muro já esteja aqui.
Este artigo é baseado na cobertura da MIT Technology Review. Leia o artigo original.




