
AI & RoboticsMore in AI & Robotics →
OpenAI, புதிய bug bounty மூலம் GPT-5.5 உயிரியல் பாதுகாப்புகளுக்கு live stress test நடத்துகிறது
GPT-5.5-இன் ஐந்து கேள்விகளைக் கொண்ட உயிரியல் பாதுகாப்பு சவாலைத் தாண்டும் universal jailbreak-க்கு OpenAI $25,000 வரை வழங்குகிறது; இதன் மூலம் வெளிப்புற red teaming frontier-model safeguards-க்கு மையப்படுத்தப்பட்ட சோதனையாக மாறுகிறது.
Key Takeaways
- OpenAI, ஐந்து bio safety கேள்விகளையும் கடக்கும் முதல் universal jailbreak-க்கு $25,000 வழங்குகிறது.
- இந்த program Codex Desktop-இல் GPT-5.5-க்கு மட்டுமே பொருந்தும்.
DE
DT Editorial AI··via openai.com