OpenAI ग्राहक AI सुरक्षा नियमांपासून cyber defense access वेगळी करत आहे

OpenAI ने सत्यापित सुरक्षा संशोधकांसाठी GPT-5.5-Cyber नावाचा एक विशेष मॉडेल व्हेरिएंट रिलीज केला आहे, जो frontier AI कंपन्या dual-use capabilities कशा हाताळत आहेत यामध्ये एक ठळक बदल दर्शवतो. दिलेल्या अहवालानुसार, ही प्रणाली “Trusted Access for Cyber” कार्यक्रमाद्वारे उपलब्ध आहे आणि ती सामान्य जनतेसाठी नसून महत्त्वाच्या पायाभूत सुविधांचे संरक्षण करणाऱ्या defenders साठी आहे.

हा बदल अशा तणावाचे प्रतिबिंब आहे की ज्याकडे AI labs आता दुर्लक्ष करू शकत नाहीत. दुर्भावनापूर्ण hacking requests रोखणाऱ्या त्याच safeguards मुळे vulnerability reproduction, patch verification, आणि malware analysis यांसारखे वैध defensive कामही अडते. OpenAI ची प्रतिक्रिया म्हणजे एकसमान सुरक्षा भूमिकेला चिकटून राहण्याऐवजी access विविध tiers मध्ये विभागणे.

access model कसे काम करते

अहवालानुसार OpenAI आता तीन access levels वापरत आहे. सार्वजनिक मॉडेलमध्ये standard restrictions राहतात. मधला tier defensive security work साठी filters सैल करतो. सर्वात permissive tier असलेले GPT-5.5-Cyber अधिकृत penetration testing आणि संबंधित high-sensitivity tasks साठी राखीव आहे.

OpenAI म्हणते की प्रणाली अजूनही passwords चोरणे किंवा third-party systems वर हल्ला करणे यांसारख्या कृती रोखते. पण source मधील उदाहरणे स्पष्ट करतात की Cyber variant सामान्य AI systems सहसा नाकारतात इतक्या स्तरावरील operational detail ला परवानगी देतो. तिथे वर्णन केलेल्या एका demonstration मध्ये, मॉडेलने केवळ ज्ञात vulnerability साठी exploit code तयार केले नाही, तर test server वर हल्ला केला, machine चा ताबा घेतला, आणि system information वाचून परत दिली.

हे काही छोटे policy tweak नाही. नियंत्रित वातावरणाबाहेर पाहिले तर offensive tradecraft पासून वेगळे ओळखता येणार नाही असे कार्य करू शकणाऱ्या advanced cyber defense systems ची गरज वाढत आहे, याची ही औपचारिक कबुली आहे.