Un alto ejecutivo de IA plantea el caso contra la tesis del frenazo

Mustafa Suleyman sostiene que la inteligencia artificial no está cerca de agotar su senda de crecimiento. En un nuevo ensayo publicado por

MIT Technology Review

, el director de IA de Microsoft afirma que las predicciones reiteradas de que el desarrollo de la IA pronto chocará con un muro no entienden la escala ni la estructura de la expansión del cómputo que hoy impulsa el sector. Su idea central es clara: la explosión de cómputo detrás de la IA de frontera sigue siendo la historia tecnológica definitoria de la era, y los impulsores subyacentes aún tienen margen para seguir acumulándose.

El ensayo es explícitamente una argumentación y no un informe neutral de la industria, pero resulta notable porque proviene de una figura sénior de una de las empresas más directamente invertidas en infraestructura de IA. La postura de Suleyman es que los escépticos siguen buscando un único cuello de botella, como una ley de Moore más lenta, datos limitados o restricciones energéticas, mientras pasan por alto cómo confluyen al mismo tiempo varios avances técnicos.

La escala de la afirmación sobre el cómputo

Suleyman dice que la cantidad de cómputo de entrenamiento utilizada en los modelos de IA de frontera ha aumentado alrededor de un billón de veces desde los primeros sistemas hasta los modelos más grandes de hoy. Describe el cambio desde unas 10^14 operaciones de punto flotante en los primeros años de su trabajo en 2010 hasta más de 10^26 FLOPS en los sistemas de frontera actuales. Se acepte o no cada implicación de esa comparación, el punto que plantea es claro: el progreso de la IA ha sido impulsado por un salto histórico en la cantidad de cómputo aplicado al entrenamiento.

Ese enfoque importa porque desplaza la discusión desde nociones abstractas de inteligencia y la devuelve a la capacidad industrial. En esta visión, el progreso de la IA no es principalmente la historia de avances algorítmicos aislados. Es la historia de sistemas cada vez más vastos que pueden mantener ocupados a más procesadores, con más datos fluyendo a través de ellos de manera más eficiente y durante periodos más largos.

Tres pilares técnicos en el argumento de Suleyman

El ensayo identifica tres avances que, según él, ahora están trabajando en conjunto. El primero es un rendimiento bruto más rápido de los chips. Señala que el hardware de Nvidia pasó de 312 teraflops en 2020 a 2.500 teraflops hoy, un aumento de ocho veces en seis años. También cita el chip Maia 200 de Microsoft, lanzado en enero, que según él ofrece un 30% mejor rendimiento por dólar que cualquier otro hardware de la flota de la compañía.

El segundo es el ancho de banda de memoria. Suleyman destaca la memoria de alto ancho de banda, o HBM, y dice que la última generación, HBM3, triplica el ancho de banda de su predecesora. En términos prácticos, su argumento es que los sistemas de entrenamiento no solo se están volviendo mejores para hacer cálculos, sino también para alimentar rápidamente a los procesadores y evitar que los aceleradores costosos queden inactivos esperando datos.

El tercero es la interconexión a gran escala. Tecnologías como NVLink e InfiniBand, escribe, ahora conectan cientos de miles de GPUs en supercomputadoras de escala de almacén que funcionan como un solo sistema. Esta es una parte clave de la tesis del ensayo. La historia no es solo “mejores chips”. También es la ingeniería de estructuras de cómputo cada vez más grandes que reducen el tiempo desperdiciado y coordinan enormes cantidades de procesadores de forma conjunta.

Por qué el ensayo importa incluso siendo una pieza de opinión

El argumento de Suleyman aterriza en medio de un debate activo. Críticos de la IA y algunos investigadores han cuestionado si las tendencias actuales de escalado pueden continuar de forma económica o física. Las preocupaciones suelen centrarse en la demanda eléctrica, la intensidad de capital, la escasez de datos y los rendimientos decrecientes de simplemente hacer los modelos más grandes. Suleyman no descarta esas preocupaciones una por una, sino que sostiene que todavía no superan la fuerza combinada de las mejoras en chips, los avances en memoria y la integración de sistemas.

Esa posición es importante porque ahora se están tomando decisiones de gran calado sobre infraestructura. Si el sector cree que la curva de cómputo sigue siendo empinada, entonces los hiperescaladores, los diseñadores de chips y los gobiernos tendrán más probabilidades de seguir invirtiendo a una escala extraordinaria. Si creen que un muro duro está cerca, cambia la asignación de capital. Por eso, el ensayo no es solo descriptivo. Forma parte de la competencia por definir qué tipo de futuro deberían construir las empresas de IA.

También refleja cómo la industria de la IA enmarca cada vez más el progreso en términos de sistemas. El rendimiento por chip importa, pero también el ancho de banda, la red y la coordinación del software. El resultado práctico es que el liderazgo en IA se está volviendo inseparable de las cadenas de suministro, el diseño de centros de datos y la capacidad de integrar hardware en una infraestructura de entrenamiento coherente.

Las fortalezas y límites del caso

La fortaleza del argumento de Suleyman es que no depende de un único avance mágico. Hace hincapié en las mejoras de ingeniería acumulativas en varias capas de la pila. Así es a menudo como los grandes cambios tecnológicos mantienen su impulso durante más tiempo del esperado. Los cuellos de botella en un área pueden compensarse parcialmente cuando varias capas vecinas mejoran al mismo tiempo.

La limitación es que un ensayo de opinión no es lo mismo que una prueba de que la mejora exponencial continuará indefinidamente. El artículo sostiene que la tendencia “parece bastante predecible” cuando se considera el panorama técnico completo, pero las trayectorias a largo plazo siguen dependiendo de la economía, la disponibilidad de energía, las restricciones de oferta y el valor que los clientes obtengan finalmente de sistemas más grandes. Suleyman está haciendo un caso contundente a favor de seguir escalando, no cerrando el debate.

Una señal útil de confianza en la industria

Aun así, el ensayo es una señal útil. Muestra que uno de los principales ejecutivos del sector está defendiendo públicamente no la moderación, sino la confianza continua en la construcción de infraestructura detrás de la IA de frontera. La confianza no se expresa en términos místicos. Está anclada en teraflops, ancho de banda e interconexiones. Eso, por sí solo, dice algo importante sobre la fase actual de la industria.

Por toda la fascinación pública con los chatbots y los agentes, el centro de gravedad en la IA sigue siendo el cómputo. El ensayo de Suleyman recuerda que la batalla estratégica todavía se libra en lo profundo de la capa de hardware y sistemas. Si tiene razón, la industria aún está en una fase temprana de una expansión mucho mayor. Si se equivoca, los próximos años expondrán sus límites. En cualquier caso, la pieza captura la mentalidad de las empresas que están construyendo la era de la IA: no creen que el muro esté aquí todavía.

Este artículo se basa en información de MIT Technology Review. Leer el artículo original.