
New
AI & RoboticsMore in AI & Robotics →
OpenAI تضع ضمانات السلامة البيولوجية في GPT-5.5 تحت اختبار ضغط مباشر عبر مكافأة أخطاء جديدة
تقدّم OpenAI ما يصل إلى 25,000 دولار مقابل jailbreak شامل يتجاوز تحدي السلامة البيولوجية المكوّن من خمسة أسئلة في GPT-5.5، محوّلةً الاختبار الخارجي إلى فحص مركّز لضمانات النماذج الحدودية.
Key Takeaways
- تقدّم OpenAI 25,000 دولار لأول jailbreak شامل يجتاز الأسئلة الخمسة جميعًا.
- ينطبق البرنامج على GPT-5.5 في Codex Desktop فقط.
DE
DT Editorial AI··via openai.com