GPT-5.4 Thinkingとは何か

OpenAIは最新の最先端推論モデル「GPT-5.4 Thinking」をリリースしました。これには、モデルの能力、安全性評価、および制限事項を記述した詳細なシステムカードが同梱されています。このリリースは、OpenAIが複雑で多段階の問題に取り組むことができるAIシステムを開発するための別のステップとなります。このシステムは、ユーザーに最終的な回答を提供する前に、拡張された推論チェーンを通じて問題に取り組みます。

トークンバイトークンで考慮なく応答を生成する標準的な言語モデルとは異なり、GPT-5.4 Thinkingは思考の連鎖推論を使用しています。これは出力に確定する前に問題を内部で解決します。このアーキテクチャにより、モデルは数学的証明、複雑なコーディングタスク、科学的推論、および微妙な論理分析を、以前のシステムよりも大幅に高い精度で処理できます。

OpenAIがすべてのフロンティアモデルに公開するシステムカードは、デプロイ前にAIをどのように評価するかについて透明的な見方を提供します。安全性ベンチマーク、レッドチームの結果、潜在的な悪用リスク、および実装された特定の緩和策をカバーしています。研究者とエンタープライズ顧客に、新しいモデルの適切な使用ケースを評価するために必要な情報を提供します。

安全性評価とレッドチームの結果

GPT-5.4 Thinkingの安全性テストはOpenAIのPreparedness Frameworkに従い、サイバーセキュリティ脅威、生物・化学兵器の製造支援、放射線リスク、および自律的なリソース取得にわたってモデルを評価しました。システムカードはGPT-5.4 Thinkingを全体的なリスク区分「中」に分類し、追加の制限を引き起こすことなく標準的な安全性緩和策を実施してデプロイできることを意味します。

レッドチームの評価はジェイルブレイク、間接的なプロンプトインジェクション、および多段階の敵対的操作に対するモデルの耐性をテストしました。GPT-5.4 Thinkingは、以前の世代と比較して多くの攻撃ベクトルに対する耐性を示していますが、非常に高度な敵対的入力に対しては不完全なままです。これはトレーニングの洗練さに関係なく、すべての現在のAIシステムに当てはまる注意事項です。

説得および操作能力の評価では、モデルの安全性トレーニングがユーザーを欺くまたは強制するために設計されたコンテンツを生成する意欲を大幅に減らしていることが判明しました。OpenAIはまた、エージェント設定でのモデルの動作を評価し、モデルが実際の結果をもたらす一連のアクションを実行できる場合を評価し、「中」の分類しきい値の許容可能な安全性パラメータ内でのパフォーマンスを見つけました。

ベンチマークパフォーマンスと能力

標準推論ベンチマークでは、GPT-5.4 Thinkingは前身よりも意味のある改善を示しています。このモデルはMATHおよび競争的プログラミング評価で最先端の結果を達成し、複数のドメイン全体で情報を統合する必要がある科学的推論タスクで強いパフォーマンスを示しています。物理学、化学、形式論理の大学院レベルの学術的質問は、以前世代のモデルと比較して特に強みを示しています。

拡張された思考ウィンドウ(出力する前にモデルが実行する内部計算の量)は、以前のバージョンと比較して増加しています。これにより、GPT-5.4 Thinkingは単一ホップ推論ではなく、継続的な多段階分析が必要な問題に取り組むことができます。エンタープライズのデプロイメントでは、これは財務モデリング、コードレビュー、および研究統合タスクなどの複雑なワークフローでのより信頼性の高いパフォーマンスに変換されます。

これらの改善にもかかわらず、システムカードはGPT-5.4 Thinkingが完全無欠ではないことを明示的に述べています。このモデルは依然として事実を幻覚させ、十分に複雑な計算で算術エラーを生じさせ、トレーニングデータが少ないまたは曖昧な場合に過度に自信のある回答を生成することができます。OpenAIは高リスクアプリケーションでの人間による監視を推奨し、重要なシステムの唯一の意思決定者としてモデルを使用することに対して警告しています。

思考の連鎖の透明性

システムカードのより技術的に重要な側面の1つは、思考の連鎖の透明性の扱いです。OpenAIは、モデルの推論プロセスの一部をユーザーに表示する方針を継続し、結論に達するために取られた論理パスの検証を可能にします。この透明性は、隠された欺瞞的な推論を構造的に難しくすることで安全性機能を果たし、モデルロジックがユーザー自身の期待から逸脱した場所を特定することで実際的な機能を果たします。

システムカードは、可視思考の連鎖を完全な安全保証として使用することの制限を認めています。このリリースと並行して公開された研究では、推論モデルが表示する推論トレースで何が表示されるかが、基礎となる計算プロセスと常に完全に一致していないことがわかりました。OpenAIは、可視推論が真の内部的な決定経路を正確に反映しているかどうかについて調査を続けています。これはAI解釈可能性と監視に対する深い意味を持つ質問です。

この透明性の取り組みは、OpenAI内の推論モデルが隠蔽または偽造された思考を指示できるかどうかに関する広範な安全研究に直接つながっています。現在のアーキテクチャでは、これは構造的に困難であるという証拠があります。この発見は、思考の連鎖の監視の価値を、化粧品的な出力劇場ではなく、実際のシグナルとして強化しています。

エンタープライズAIにおけるGPT-5.4 Thinkingの意味

複雑なワークフローにAIを導入している組織にとって、GPT-5.4 Thinkingは以前の推論モデルよりも意味のある能力アップグレードを表しています。改善された推論は、現在広範な人間のレビューが必要なタスク、契約分析、科学文献の統合、および微妙な統合要件を備えた複数ドキュメントの要約に、より適しています。

エンタープライズAPI アクセスはOpenAIの標準価格層を通じて利用可能です。拡張思考は、関連する追加の計算を反映する高いトークンコストで利用可能です。この機能は、組織が特定のユースケースの品質改善に対して評価する必要があるトレードオフです。OpenAIはデプロイを通じて継続的な安全監視を約束し、新しい能力またはリスクが発見されると、システムカードを更新します。

このリリースは、OpenAIが能力リリースに沿って詳細な安全ドキュメントを公開するパターンを継続しています。これは、他の主要なAI開発者が一致するプレッシャーの下にある透明性基準を設定しています。推論モデルがエンタープライズAIの中核インフラストラクチャになるにつれて、これらの評価の品質と深さは、業界全体の調達とデプロイメント決定における重要な要因になります。

この記事はOpenAIのレポートに基づいています。元の記事を読む