
New
AI & RoboticsMore in AI & Robotics →
OpenAI 以新的漏洞赏金计划对 GPT-5.5 生物安全防护进行实战压力测试
OpenAI 最高提供 25,000 美元,征求能够绕过 GPT-5.5 五问生物安全挑战的通用越狱方法,将外部红队测试转化为一项聚焦前沿模型安全防护的实战检验。
Key Takeaways
- OpenAI 为首个通过全部五道生物安全题的通用越狱方法提供 25,000 美元。
- 该计划仅适用于 Codex Desktop 中的 GPT-5.5。
DE
DT Editorial AI··via openai.com