
New
AI & RoboticsMore in AI & Robotics →
OpenAI、GPT-5.5の生物学的安全策を新たなバグ報奨金で実地ストレステストへ
OpenAIは、GPT-5.5の5問からなる生物学安全チャレンジを突破するユニバーサル・ジェイルブレイクに最大25,000ドルを提示し、外部のレッドチーミングを最先端モデルの安全策を絞り込んだ検証へと変えている。
Key Takeaways
- OpenAI は、5問すべての生物安全質問を突破する最初のユニバーサル・ジェイルブレイクに25,000ドルを提供する。
- このプログラムは Codex Desktop 上の GPT-5.5 のみに適用される。
DE
DT Editorial AI··via openai.com