OpenAI उपभोक्ता AI सुरक्षा नियमों से साइबर रक्षा की पहुंच को अलग कर रहा है
OpenAI ने सत्यापित सुरक्षा शोधकर्ताओं के लिए GPT-5.5-Cyber नामक एक विशेष मॉडल वेरिएंट जारी किया है, जो फ्रंटियर AI कंपनियों द्वारा दोहरे उपयोग वाली क्षमताओं को संभालने के तरीके में एक उल्लेखनीय बदलाव का संकेत देता है। दी गई रिपोर्ट के अनुसार, यह प्रणाली “Trusted Access for Cyber” कार्यक्रम के माध्यम से उपलब्ध है और इसका उद्देश्य महत्वपूर्ण बुनियादी ढांचे की रक्षा करने वाले रक्षकों के लिए है, आम जनता के लिए नहीं।
यह कदम उस तनाव को दर्शाता है जिसे AI लैब्स के लिए अब अनदेखा करना कठिन हो गया है। वही सुरक्षा उपाय जो दुर्भावनापूर्ण हैकिंग अनुरोधों को रोकते हैं, वैध रक्षा कार्य को भी बाधित करते हैं, जिनमें कमजोरियों का पुनरुत्पादन, पैच सत्यापन, और मैलवेयर विश्लेषण शामिल हैं। OpenAI की प्रतिक्रिया एक सार्वभौमिक सुरक्षा रुख बनाए रखने के बजाय पहुंच को अलग-अलग स्तरों में विभाजित करना है।
एक्सेस मॉडल कैसे काम करता है
रिपोर्ट के अनुसार OpenAI अब तीन स्तरों की पहुंच का उपयोग कर रहा है। सार्वजनिक मॉडल में मानक प्रतिबंध बने रहते हैं। बीच का स्तर रक्षात्मक सुरक्षा कार्य के लिए फ़िल्टरों को ढीला करता है। GPT-5.5-Cyber, जो सबसे अधिक अनुमति देने वाला स्तर है, अधिकृत पेनेट्रेशन टेस्टिंग और संबंधित उच्च-संवेदनशीलता वाले कार्यों के लिए आरक्षित है।
OpenAI कहता है कि यह प्रणाली अभी भी पासवर्ड चुराने या तृतीय-पक्ष प्रणालियों पर हमला करने जैसी कार्रवाइयों को रोकती है। लेकिन स्रोत में दिए गए उदाहरण स्पष्ट करते हैं कि Cyber वेरिएंट उस स्तर का परिचालन विवरण अनुमति देता है जिसे मुख्यधारा की AI प्रणालियां सामान्यतः अस्वीकार कर देती हैं। वहां वर्णित एक प्रदर्शन में, मॉडल ने न केवल एक ज्ञात कमजोरी के लिए एक्सप्लॉइट कोड बनाया, बल्कि एक परीक्षण सर्वर पर हमला भी किया, मशीन पर नियंत्रण हासिल किया, और सिस्टम जानकारी वापस पढ़ी।
यह कोई छोटा नीतिगत संशोधन नहीं है। यह इस बात की औपचारिक स्वीकारोक्ति है कि उन्नत साइबर रक्षा के लिए increasingly ऐसे AI सिस्टम की आवश्यकता है जो वे काम कर सकें जो नियंत्रित वातावरण के बाहर आक्रामक ट्रेडक्राफ्ट से लगभग अलग न दिखें।





