
New
AI & RoboticsMore in AI & Robotics →
OpenAI stellt die biologischen Schutzmechanismen von GPT-5.5 mit einer neuen Bug-Bounty auf die Probe
OpenAI bietet bis zu 25.000 Dollar für einen universellen Jailbreak, der eine fünfteilige biologische Sicherheitsaufgabe in GPT-5.5 aushebelt, und macht externes Red Teaming damit zu einem gezielten Test der Schutzmechanismen von Frontier-Modellen.
Key Takeaways
- OpenAI bietet 25.000 Dollar für den ersten universellen Jailbreak, der alle fünf biologischen Sicherheitsfragen überwindet.
- Das Programm gilt nur für GPT-5.5 in Codex Desktop.
DE
DT Editorial AI··via openai.com