Год, когда пузырь AI встретился с реальностью
За несколько лет искусственный интеллект превратился из нишевой области исследований в самую раскрученную технологию в современной истории. Триллионы долларов рыночной капитализации, миллиарды в венчурном финансировании и поток безудержных предсказаний об искусственном общем интеллекте создали атмосферу иррациональной эйфории, которая соперничала с эпохой доткомов. Затем наступил 2025 год, и настало расплата.
MIT Technology Review составил комплексную оценку того, что пошло не так, в новой электронной книге, документируя разрыв между тем, что обещали компании AI, и тем, что они фактически доставили. Серия "Hype Correction" издания утверждает, что индустрия вступила в необходимую постгипную фазу, которая требует честного признания подлинных возможностей технологии и её подлинных ограничений.
Электронная книга выходит в момент, когда индустрия AI переживает кризис идентичности. Революционная технология, которая должна была трансформировать каждую отрасль, устранить миллионы рабочих мест и потенциально достичь сверхчеловеческого интеллекта, вместо этого произвела более скромную реальность полезных, но ограниченных инструментов, которые работают лучше всего при тщательной интеграции в существующие человеческие рабочие процессы.
Процент отказов 95 процентов
Возможно, самая убийственная статистика в расплате происходит из собственного отчета MIT "GenAI Divide", опубликованного в июле 2025 года. Исследование показало, что девяносто пять процентов корпоративных развертываний AI не обеспечили измеримую деловую стоимость. Это не цифра скептиков или критиков. Она возникла из тщательного анализа фактических корпоративных реализаций в нескольких отраслях.
Процент отказов требует контекста. В течение 2023 и 2024 годов компании всех секторов спешили принять генеративный AI, часто под давлением советов директоров, инвесторов и медийных нарративов, которые рассматривали реализацию AI как экзистенциальную необходимость. Главные исполнительные директора, которые не могли сформулировать стратегию AI, сталкивались с острыми вопросами от акционеров. Результатом была волна поспешных, плохо спланированных развертываний, движимых больше страхом упустить, чем подлинной деловой необходимостью.
Многие из этих реализаций следовали предсказуемой схеме. Компания лицензировала большую языковую модель, построила прототип чат-бота или инструмент суммирования документов, продемонстрировала его руководству в контролируемой среде, а затем обнаружила, что производительность резко упала при развертывании реальным пользователям, выполняющим реальные задачи с реальными данными. Разрыв между демонстрацией и продакшеном оказался намного больше, чем предлагали поставщики.
Автономные агенты: Обещание, которое рухнуло
Ни один сегмент индустрии AI не переживал более драматическую коррекцию шумихи, чем автономные агенты. На протяжении 2024 года и в начало 2025 года крупные компании AI пропагандировали видение программных агентов, которые могли бы независимо выполнять сложные рабочие задачи, от бронирования путешествий до написания отчетов и управления проектами, с минимальным человеческим надзором.
Исследование, проведенное исследователями из Upwork, систематически протестировало это предложение, развертывая агентов, работающих на основе ведущих больших языковых моделей от OpenAI, Google DeepMind и Anthropic, на диапазон стандартных рабочих задач. Результаты были трезвящими. Эти агенты не смогли самостоятельно выполнить многие простые задачи. Модели, такие как GPT-5 и Gemini, достигли скорости завершения всего двадцать процентов на задачах, требующих более чем простого поиска информации.
Задачи, требующие культурной чувствительности, оказались особенно проблематичными. Генерирование маркетинговой копии, перевод языков, дизайн макетов веб-сайтов и любая работа, требующая понимания аудитории, контекста или эстетического суждения, полностью провалились. Агенты могли генерировать текст, который поверхностно напоминал компетентную работу, но разваливался под пристальным взглядом, производя выходные данные, которые были банальными, культурно неправильными или фактически ненадежными.
Парадокс кодирования
Одним из самых удивительных открытий в коррекции шумихи было помощники AI для кодирования, которые были среди самых праздных и широко принятых приложений больших языковых моделей. Множество исследований, опубликованных в 2025 году, сошлись на неожиданном выводе: разработчики, использующие помощники AI для кодирования, на самом деле завершали задачи на девятнадцать процентов медленнее, чем те, кто работал без них.
Объяснение, похоже, касается скрытых затрат на кодирование, ассистируемое AI. Хотя инструменты ускорили начальное генерирование кода, разработчики потратили значительное дополнительное время на проверку, тестирование и исправление результата AI. Модели часто вводили тонкие ошибки, использовали устаревшие API или генерировали код, который технически компилировался, но нарушал архитектурные соглашения или лучшие практики безопасности. Время, сэкономленное при написании, было более чем компенсировано временем, потраченным на проверку и исправление.
Это открытие напрямую противоречило заявлениям компаний AI, которые проецировали огромные прибыли производительности от помощников кодирования. Несколько заметных исследований, заказанных самими компаниями AI, показали драматическую экономию времени, но они обычно проводились в контролируемых условиях с простыми, четко определенными задачами, а не с беспорядочной, неоднозначной работой, которая характеризует реальную разработку программного обеспечения.
Мираж AGI
В основе большей части шумихи AI лежало обещание или угроза искусственного общего интеллекта, гипотетической системы, способной сравняться или превзойти когнитивные способности человека по всем направлениям. На протяжении 2023 и 2024 годов лидеры крупных компаний AI активно культивировали ожидания того, что AGI неминуем или близок, с временными рамками от двух до пяти лет.
К концу 2025 года этот нарратив в значительной степени развалился. Известные исследователи AI начали публично заявлять, что эра революционных прорывов закончилась и что большие языковые модели, технология, движущая текущее поколение систем AI, не являются путем к AGI. Законы масштабирования, которые стимулировали быстрые улучшения в производительности модели, показывали признаки попадания в когнитивную стену масштабирования, где просто увеличение размера моделей и обучение их на большем количестве данных приносило убывающую прибыль.
Технические причины все лучше поняты. Большие языковые модели - это изощренные системы распознавания образов, обученные на тексте, созданном человеком. Они могут комбинировать и интерполировать узоры впечатляющим образом, но им не хватает причинного рассуждения, мировых моделей и подлинного понимания, которое характеризовало бы истинный общий интеллект. Разрыв между создание беглого текста и пониманием того, что этот текст означает, остается столь же широким, как и раньше, независимо от масштаба модели.
Человеческие затраты на шумиху
Коррекция шумихи AI не была чисто абстрактным вопросом оценки технологии. Реальные последствия последовали из раздутых ожиданий. Компании, которые сделали преждевременные обязательства в отношении автоматизации на основе AI, столкнулись с дорогостоящими переворотами. Рабочие, которым сказали, что их рабочие места будут устранены AI, испытали продолжительную тревогу, только чтобы обнаружить, что их роли в значительной степени не изменились. Студенты, которые переструктурировали свое образование вокруг навыков, близких к AI, теперь сомневаются, материализуется ли рынок труда, который им был обещан.
Возможно, что наиболее важно, ресурсы, посвященные AI в течение цикла шумихи, представляли альтернативные издержки. Капитал, технический талант и организационное внимание, направленные на проекты AI с минимальной отдачей, могли бы быть инвестированы в другие технологии или в решение насущных нетехнологических проблем.
Что выживает исправление
Коррекция шумихи не означает, что искусственный интеллект бесполезен. Напротив, устранив нереалистичные ожидания, это проясняет, где технология действительно преуспевает. Инструменты AI эффективны для конкретных, четко определенных задач: суммирование документов, перевод языков с проверкой человека, ускорение поиска через большие наборы данных, генерирование первых черновиков, которые люди затем совершенствуют, и выявление закономерностей в структурированных данных.
Общей нитью успешных приложений является надзор человека. AI работает лучше всего не как автономный агент, а как инструмент, который дополняет человеческое суждение, обрабатывая рутинное и повторяющееся, в то время как люди обеспечивают контекст, творчество и критическое мышление, которого технологии не хватает. Это менее драматичное видение, чем AGI, но это реалистичное, и оно описывает рынок стоимостью сотни миллиардов долларов.
Электронная книга MIT Technology Review утверждает, что постгипная фаза, хотя и болезненна для тех, кто сильно ставил на самые амбициозные прогнозы, в конечном итоге здорова для долгосрочного развития технологии. Реалистичные ожидания приводят к лучшим реализациям, которые приводят к подлинной стоимости, которая поддерживает инвестиции, необходимые для дальнейших исследований. Великая коррекция AI-шумихи 2025 года в конце концов может быть запомнена не как провал технологии, а как необходимое созревание индустрии, которая её строит.
Эта статья основана на материалах MIT Technology Review. Прочитайте оригинальную статью.



