AI泡沫が現実に出会った年

わずか数年の間に、人工知能はニッチな研究分野から現代史上最も誇大宣伝されたテクノロジーへと転換しました。時価総額の数兆ドル、ベンチャーファンディングの数十億ドル、そして人工汎知能についての熱気的な予測の洪水は、ドットコム時代に匹敵する無分別な熱狂の雰囲気を作成するために組み合わされました。その後、2025年が来て、請求書の支払い時間が来ました。

MIT Technology Reviewは、新しい電子書籍でこの状況の包括的な評価をまとめ、AI企業が約束したことと実際に提供したことの間の切断を記録しています。この出版物の「ハイプ修正」シリーズは、業界が必要な過度なハイプ後の段階に入ったと主張しており、この段階ではテクノロジーの本当の能力とその同等の本当の制限との正直な会計処理が必要です。

この電子書籍は、AI産業がアイデンティティの危機に直面している時期に到着しています。すべての業界を変革し、何百万人もの職を排除し、可能性のある超人的知能を達成するはずだった革命的なテクノロジーは、代わりに有用ではあるが限定的なツールのより控えめな現実を生み出しており、既存の人間のワークフローに注意深く統合されたときに最良です。

95%の失敗率

会計処理における最も非難的な統計は、2025年7月に発表されたMITの「GenAI Divide」レポート自体から来ています。この研究は、エンタープライズAI展開の95%が測定可能なビジネス価値を提供しなかったことを発見しました。これはスケプティックや批評家からの数字ではありません。これは複数の産業にわたる実際の企業実装の厳密な分析から生まれました。

失敗率は文脈を必要とします。2023年と2024年の間、あらゆるセクターの企業はジェネレーティブAIを採用するために急いでいきました。多くの場合、ボード、投資家、およびAI実装を実存的として扱ったメディアナラティブからの圧力の下で。AI戦略を表明できなかった最高経営責任者は、株主からの厳しい質問に直面しました。結果は、本当のビジネス上の必要性よりも何かを逃すという恐怖によって駆動された、急いで、計画不十分な展開の波でした。

これらの実装の多くは予測可能なパターンに従いました。企業は大規模言語モデルライセンスを取得し、チャットボットまたはドキュメント要約ツールプロトタイプを構築し、管理された設定で経営陣に展示し、実際の使用者が実際のタスクを処理するときにパフォーマンスが劇的に低下したことを発見します。実際のデータ。デモと本番の間のギャップは、ベンダーが提案した。

自律エージェント:崩壊した約束

AI産業のセグメントは、自律エージェントよりも劇的なハイプ修正を経験しませんでした。2024年全体と2025年初期を通じて、主要なAI企業は、旅行の予約から報告書の作成まで、プロジェクト管理まで、最小限の人的監督で、複雑な職場タスクを独立して完了できるソフトウェアエージェントのビジョンを促進しました。

Upworkの研究者による研究は、この提案を体系的にテストし、OpenAI、Google DeepMind、およびAnthropicからの主要な大規模言語モデルを使用してパワーエージェントを、標準的な職場タスクの範囲に展開しました。結果は厳しいものでした。これらのエージェントは、多くの簡単なタスクを自分自身で完了することができませんでした。GPT-5およびGeminiなどのモデルは、単純な情報検索以上を必要としたタスクでは20%の完了率をほぼ達成しました。

文化的なニュアンスを必要とするタスクは特に問題になることが判明しました。マーケティングコピーの生成、言語翻訳、Webサイトレイアウトデザイン、および視聴者、文脈、または美的判断の理解を必要とする作業は完全に失敗しました。エージェントは表面的に有能な作業に似たテキストを生成することができますが、精査の下で崩壊し、一般的で文化的に無感覚であるか、事実的に信頼できない出力を生成しました。

コーディング逆説

ハイプ修正における最も驚くべき調査結果の1つは、大規模言語モデルの最も祝われ、広く採用されたアプリケーションの中にあったAIコーディングアシスタントに関連していました。2025年にリリースされた複数の研究は、予期しない結論に収束しました。AIコーディングアシスタントを使用している開発者は、実際には、それらを使用せずに働いていた開発者よりも19%遅くタスクを完了しました。

説明は、AI支援コーディングの隠された費用を伴うようです。ツールは初期的なコード生成を加速しましたが、開発者はAIの出力をレビュー、テスト、および修正することに相当な追加時間を費やしました。モデルは頻繁に微妙なバグを導入し、非推奨のAPIを使用し、または技術的にコンパイルされたが建築規約またはセキュリティのベストプラクティスに違反したコードを生成しました。文化における時間の節約は、検証と修正に費やされた時間によって消費されました。

この結果は、AIコーディングアシスタントから膨大な生産性の向上を予測していたAI企業の請求と直接矛盾しました。AI企業自体によって委託された複数の著名な研究は劇的な時間の節約を示しましたが、これらは通常、実際のソフトウェア開発を特徴づける混乱と曖昧な作業ではなく、単純でよく定義されたタスクを持つ管理環境で行われました。

AGI蜃気楼

AI誇大宣伝の多くの根底にあったのは、人工汎知能、すべてのドメイン全体で人間の認知能力に匹敵するか超える可能性があるシステムの約束またはおどし。2023年と2024年を通じて、主要なAI企業の指導者は、AGIが差し迫っているか近いという期待を積極的に育成し、タイムラインは2から5年の範囲でした。

2025年の終わりまでに、このナラティブはほぼ崩壊していました。著名なAI研究者は、画期的な進歩の時代が終わり、現在のAIシステム世代を駆動する技術である大規模言語モデルはAGIへの道ではないと公開して述べ始めました。モデルパフォーマンスの急速な改善を駆動したスケーリング法則は、単にモデルを大きくして、より多くのデータでそれらを訓練することがますます小さなリターンをもたらす認知的スケーリング壁に打つ兆候を示しました。

技術的な理由はますますよく理解されています。大規模言語モデルは、人間が生成したテキストで訓練された洗練されたパターンマッチングシステムです。彼らは印象的な方法でパターンを再結合し、補間することができますが、真の汎知能を特徴づけるであろう因果推論、世界モデル、および本物の理解が不足しています。流暢なテキストを生成することと、そのテキストが意味するものを理解することの間のギャップは、モデルスケールに関わらず、相変わらず幅広いままです。

誇大宣伝の人的費用

AI誇大宣伝修正は、純粋にテクノロジー評価の抽象的な問題ではありませんでした。膨らんだ期待から本当の結果が続きました。AI駆動の自動化への時期尚早なコミットメントを行った企業は、費用のかかる逆転に直面しました。彼らの仕事がAIによって排除されるだろうと言われていた労働者は、長引く不安を経験しましたが、彼らの役割がほぼ変わらないのを見つけるだけです。AI隣接スキルの周りに教育を再構成した学生は、彼らが約束されたという仕事市場が実現するかどうかについて今疑問に思っています。

おそらく最も重要なことは、ハイプサイクル中にAIに専念したリソースは機会費用を表していたということです。資本、エンジニアリングタレント、およびAIプロジェクトに向けられた組織の注意は最小限のリターンで最小限のリターンで、他のテクノロジーに投資されているか、緊迫した非技術的な課題に対処することができます。

修正が生き残るもの

誇大宣伝修正は人工知能が無用であることを意味しません。反対に、非現実的な期待を取り除くことにより、テクノロジーが本当に優れている場所を明確にします。AIツールは特定の、よく定義されたタスクに効果的です。ドキュメントを要約し、言語を翻訳し、人間のレビューを通じて、大規模なデータセットを通じた検索を加速し、人間が精緻化する最初の下書きを生成し、構造化されたデータのパターンを識別します。

成功したアプリケーション間の共通のスレッドは人的監督です。AIは自律エージェントではなく、人間の判断を増やすツール、日常的で反復的な処理を処理しながら人間が文脈、創造性、テクノロジーがない重要な思考を提供しています。これはAGIよりも劇的でない見方ですが、現実的であり、数百億ドルの市場を説明しています。

MIT Technology Reviewの電子書籍は、誇大宣伝後の段階は、最も野心的な予測に重く賭けた人々にとって痛いですが、テクノロジーの長期的な開発にとって究極的に健全であると主張しています。現実的な期待はより良い実装につながり、それが本物の価値につながり、継続的な研究に必要な投資を支える。2025年のAIの大規模な誇大宣伝修正は、最終的にテクノロジーの失敗ではなく、それを構築する業界の必要な成熟として記憶されるかもしれません。

この記事はMIT Technology Reviewの報道に基づいています。元の記事を読む