El Año en que la Burbuja de IA Encontró la Realidad

En cuestión de años, la inteligencia artificial pasó de ser un campo de investigación especializado a la tecnología más exagerada en la historia moderna. Billones de dólares en capitalización de mercado, miles de millones en financiamiento de riesgo y un torrente de predicciones entusiastas sobre inteligencia general artificial combinaron para crear una atmósfera de exuberancia irracional que rivalizaba con la era de las puntocom. Luego llegó 2025, y llegó la hora de pagar la factura.

MIT Technology Review ha compilado su evaluación integral de lo que salió mal en un nuevo eBook, documentando la desconexión entre lo que prometían las empresas de IA y lo que realmente entregaban. La serie "Corrección de Hype" de la publicación sostiene que la industria ha entrado en una fase necesaria post-hype, que requiere un ajuste de cuentas honesto con las capacidades genuinas de la tecnología y sus limitaciones igualmente genuinas.

El eBook llega en un momento en que la industria de la IA está lidiando con una crisis de identidad. La tecnología revolucionaria que se suponía transformaría cada industria, eliminaría millones de empleos y potencialmente lograría una inteligencia sobrehumana, en cambio ha producido una realidad más modesta de herramientas útiles pero limitadas que funcionan mejor cuando se integran cuidadosamente en flujos de trabajo humanos existentes.

La Tasa de Fracaso del 95 Por Ciento

Quizás la estadística más condenatoria en el ajuste de cuentas proviene del propio informe "GenAI Divide" de MIT, publicado en julio de 2025. El estudio encontró que noventa y cinco por ciento de las implementaciones empresariales de IA no entregaron valor comercial medible. Esta no es una cifra de escépticos o críticos. Emergió del análisis riguroso de implementaciones corporativas reales en múltiples industrias.

La tasa de fracaso requiere contexto. Durante 2023 y 2024, empresas en cada sector se apresuraron a adoptar IA generativa, a menudo bajo presión de juntas directivas, inversores y narrativas mediáticas que trataban la implementación de IA como existencial. Los ejecutivos principales que no podían articular una estrategia de IA enfrentaban preguntas puntiagudas de accionistas. El resultado fue una ola de implementaciones apresuradas y mal planificadas impulsadas más por miedo a perderse algo que por necesidad comercial genuina.

Muchas de estas implementaciones siguieron un patrón predecible. Una empresa licenciaría un modelo de lenguaje grande, construiría un prototipo de chatbot o herramienta de resumen de documentos, lo demostraría a ejecutivos en un entorno controlado, y luego descubriría que el desempeño se degradaba dramáticamente cuando se implementaba a usuarios reales manejando tareas reales con datos reales. La brecha entre demo y producción resultó ser mucho más amplia de lo que los vendedores habían sugerido.

Agentes Autónomos: La Promesa que Colapsó

Ningún segmento de la industria de la IA experimentó una corrección de hype más dramática que los agentes autónomos. Durante 2024 e inicios de 2025, las principales empresas de IA promovieron una visión de agentes de software que podrían completar independientemente tareas complejas del lugar de trabajo, desde reservar viajes hasta escribir reportes hasta gestionar proyectos, con supervisión humana mínima.

Un estudio de investigadores en Upwork probó esta proposición sistemáticamente, implementando agentes impulsados por modelos de lenguaje grande líderes de OpenAI, Google DeepMind y Anthropic en un rango de tareas estándar del lugar de trabajo. Los resultados fueron desalentadores. Estos agentes no completaron muchas tareas sencillas por sí mismos. Modelos como GPT-5 y Gemini lograron tasas de finalización de apenas veinte por ciento en tareas que requerían más que simple recuperación de información.

Las tareas que requieren matices culturales resultaron ser particularmente problemáticas. La generación de copias de marketing, la traducción de idiomas, el diseño de diseño de sitios web, y cualquier trabajo que requiera una comprensión de audiencia, contexto o juicio estético fracasó completamente. Los agentes podían generar texto que superficialmente se asemejaba a trabajo competente pero se desmoronaba bajo escrutinio, produciendo resultados que eran genéricos, culturalmente desapegados o factualmente poco confiables.

La Paradoja de la Programación

Uno de los hallazgos más sorprendentes en la corrección del hype se refería a asistentes de codificación de IA, que habían sido entre las aplicaciones más celebradas y ampliamente adoptadas de modelos de lenguaje grande. Múltiples estudios lanzados en 2025 convergieron en una conclusión inesperada: los desarrolladores que utilizaban asistentes de codificación de IA completaban realmente tareas diecinueve por ciento más lentamente que aquellos que trabajaban sin ellos.

La explicación parece involucrar los costos ocultos de la codificación asistida por IA. Mientras las herramientas aceleraban la generación de código inicial, los desarrolladores pasaban considerable tiempo adicional revisando, probando y corrigiendo el resultado de la IA. Los modelos frecuentemente introducían bugs sutiles, usaban APIs deprecadas, o generaban código que técnicamente compilaba pero violaba convenciones arquitectónicas o mejores prácticas de seguridad. El tiempo ahorrado en escribir fue más que consumido por el tiempo pasado verificando y corrigiendo.

Este hallazgo contradijo directamente las afirmaciones de empresas de IA, que habían proyectado ganancias enormes de productividad de asistentes de codificación. Varios estudios prominentes encargados por las propias empresas de IA habían mostrado ahorros de tiempo dramáticos, pero estos típicamente se conducían en entornos controlados con tareas simples y bien definidas en lugar del trabajo desordenado y ambiguo que caracteriza el desarrollo de software real.

El Espejismo de la AGI

Subyacente a gran parte del hype de la IA estaba la promesa, o amenaza, de inteligencia general artificial, un sistema hipotético capaz de igualar o exceder las habilidades cognitivas humanas en todos los dominios. Durante 2023 y 2024, los líderes de principales empresas de IA cultivaron activamente expectativas de que la AGI era inminente o casi inminente, con líneas de tiempo que van desde dos a cinco años.

Al final de 2025, esta narrativa se había derrumbado ampliamente. Los investigadores de IA prominentes comenzaron a declarar públicamente que la era de avances revolucionarios había terminado y que los modelos de lenguaje grande, la tecnología impulsora de la generación actual de sistemas de IA, no son un camino hacia la AGI. Las leyes de escalado que habían impulsado mejoras rápidas en el desempeño del modelo mostraron señales de tocar un muro de escalado cognitivo, donde simplemente hacer modelos más grandes y entrenarlos en más datos rendía retornos decrecientes.

Las razones técnicas se entienden cada vez mejor. Los modelos de lenguaje grande son sistemas sofisticados de coincidencia de patrones entrenados en texto generado por humanos. Pueden recombinar e interpolar patrones de formas impresionantes, pero carecen del razonamiento causal, modelos mundiales, y comprensión genuina que caracterizaría la verdadera inteligencia general. La brecha entre producir texto fluido y entender qué significa ese texto permanece tan amplia como siempre, independientemente de la escala del modelo.

El Costo Humano del Hype

La corrección del hype de la IA no ha sido puramente un asunto abstracto de evaluación de tecnología. Consecuencias reales han seguido desde expectativas infladas. Empresas que hicieron compromisos prematuros con automatización impulsada por IA han enfrentado reversiones costosas. Trabajadores que fueron informados que sus empleos serían eliminados por IA experimentaron ansiedad prolongada solo para encontrar sus roles prácticamente sin cambios. Estudiantes que reestructuraron sus educaciones alrededor de habilidades adyacentes a la IA ahora están cuestionando si el mercado laboral que les fue prometido se materializará.

Quizás lo más consecuente, los recursos dedicados a la IA durante el ciclo de hype representaron costos de oportunidad. Capital, talento de ingeniería y atención organizacional dirigidos hacia proyectos de IA con retorno mínimo podrían haberse invertido en otras tecnologías o en abordar desafíos apremiantes no tecnológicos.

Lo Que Sobrevive la Corrección

La corrección del hype no significa que la inteligencia artificial sea inútil. Al contrario, al despojar expectativas irrealistas, clarifica dónde la tecnología realmente se destaca. Las herramientas de IA son efectivas para tareas específicas y bien definidas: resumir documentos, traducir idiomas con revisión humana, acelerar búsquedas a través de grandes conjuntos de datos, generar primeros borradores que los humanos luego refinan, e identificar patrones en datos estructurados.

El hilo común entre aplicaciones exitosas es supervisión humana. La IA funciona mejor no como agente autónomo sino como herramienta que aumenta el juicio humano, manejando lo rutinario y repetitivo mientras los humanos proporcionan el contexto, creatividad y pensamiento crítico que la tecnología carece. Esta es una visión menos dramática que la AGI, pero es una realista, y describe un mercado por cientos de miles de millones de dólares.

El eBook de MIT Technology Review sostiene que la fase post-hype, aunque dolorosa para aquellos que apostaron fuerte a las proyecciones más ambiciosas, es en última instancia saludable para el desarrollo a largo plazo de la tecnología. Las expectativas realistas conducen a mejores implementaciones, que conducen a valor genuino, que sustenta la inversión necesaria para la investigación continua. La gran corrección del hype de la IA de 2025 puede finalmente ser recordada no como un fracaso de la tecnología sino como una maduración necesaria de la industria que la construye.

Este artículo se basa en reportajes de MIT Technology Review. Lea el artículo original.