
New
AI & RoboticsMore in AI & Robotics →
OpenAI కొత్త bug bountyతో GPT-5.5 జీవశాస్త్ర భద్రతలపై live stress test ప్రారంభించింది
GPT-5.5లోని ఐదు ప్రశ్నల జీవశాస్త్ర భద్రతా సవాలును ఓడించే universal jailbreak కోసం OpenAI $25,000 వరకు ఇస్తోంది; దీని ద్వారా external red teamingను frontier-model safeguardsపై కేంద్రీకృత పరీక్షగా మార్చుతోంది.
Key Takeaways
- OpenAI ఐదు bio safety ప్రశ్నలన్నింటినీ దాటే మొదటి universal jailbreakకు $25,000 ఇస్తోంది.
- ఈ program Codex Desktopలోని GPT-5.5కే వర్తిస్తుంది.
DE
DT Editorial AI··via openai.com