सार्वजनिक कोडवर जलद धोरणबदल
NHS England आपले लिहिलेले सॉफ्टवेअर सार्वजनिक दृश्यातून काढून घेत आहे आणि कर्मचाऱ्यांना सांगत आहे की source code repositories डिफॉल्टने खाजगी असावीत, असे उपलब्ध source text-मध्ये वर्णन केलेल्या मार्गदर्शनात म्हटले आहे. करदात्यांच्या पैशातून तयार झालेले आणि इतरांनी पुन्हा वापरता येणारे असल्याच्या कारणावरून पारंपरिकपणे सार्वजनिक ठेवण्यात आलेल्या संस्थेसाठी हा मोठा बदल आहे.
प्रगत artificial intelligence systems सार्वजनिक कोड ingest करू शकतात, कमजोरी ओळखू शकतात आणि attackersना vulnerabilities शोधण्यात मदत करू शकतात, या चिंतेमुळे हा बदल होत आहे. नवीन मार्गदर्शनात कथितपणे 11 मेची मुदत देण्यात आली आहे; स्पष्टपणे मंजूर कारण नसल्यास repositories खाजगी कराव्या लागतील.
AI ट्रिगर: Mythos
source text नुसार NHS England ने या नव्या भूमिकेचे कारण म्हणून Anthropic च्या Mythos या AI प्रणालीचा विशेष उल्लेख केला आहे. मार्गदर्शनात म्हटले आहे की सार्वजनिक repositories source code बरोबरच architectural decisions, configuration details, आणि contextual information उघड करू शकतात, जी AI systems मोठ्या प्रमाणावर code analysis आणि reasoning मध्ये अधिक चांगल्या होत गेल्यावर exploit केली जाऊ शकतात.
ही चिंता cybersecurity विचारसरणीतल्या व्यापक बदलाचे प्रतिबिंब आहे. अनेक वर्षे बचावकर्ते exposed systems आणि code शोधून काढणाऱ्या मानवी attackers बद्दल चिंतित होते. आता नवा धोका असा की AI त्या कामाचा काही भाग स्वयंचलित करू शकते, software artifacts अतिशय वेगाने process करून exposure आणि exploitation मधला कालावधी कमी करू शकते.
हा बदल उलट परिणाम करू शकतो, असे टीकाकार का म्हणतात
दिलेल्या रिपोर्टिंगमध्ये उद्धृत केलेले security experts म्हणतात की ही धोरणात्मक भूमिका अनावश्यक आणि प्रतिकूल आहे. एक कारण म्हणजे open-source software दीर्घकाळ एका वेगळ्या सुरक्षा सिद्धांतावर आधारलेले आहे: सार्वजनिक दृश्यता गुणवत्ता सुधारू शकते, कारण जास्त लोक code तपासू, चाचणी करू आणि दुरुस्त करू शकतात. repositories बंद केल्यास vulnerabilities पूर्णपणे दूर न करता transparency कमी होऊ शकते.
source text मध्ये असेही नमूद आहे की UK government-backed AI Security Institute ने Mythos चे परीक्षण केले आणि ते फक्त “छोट्या, कमकुवतपणे संरक्षित आणि vulnerable enterprise systems” वरच हल्ला करू शकते, तसेच खरोखर secure system किंवा network व्यापक धोक्यात असल्याचे कोणतेही चिन्ह नाही, असा निष्कर्ष काढला. हे मूल्यांकन बरोबर असेल तर NHS England ची प्रतिक्रिया दाखवलेल्या धोक्याच्या मानाने अतिप्रतिक्रिया ठरू शकते.
मुक्त शासन विरुद्ध बचावात्मक गोपनीयता
हा वाद आता दोन धोरणात्मक प्रवृत्तींच्या छेदावर येऊन ठेपला आहे, ज्या वारंवार एकमेकांशी भिडत आहेत. एक मत असे की सार्वजनिक निधीतून उभारलेली digital infrastructure खुली असावी, जेणेकरून पुनरावृत्ती टळेल, सार्वजनिक सेवा सुधारतील, आणि इतरांना राज्य-निधीत कामावर पुढे बांधणी करता येईल. दुसरे मत असे की AI मुळे attackers साठी reconnaissance स्वस्त होत असताना defensive secrecy अधिक मौल्यवान होत आहे.
NHS England चा नवा नियम, किमान आत्तासाठी, दुसऱ्या दृष्टिकोनालाच स्पष्टपणे प्राधान्य देतो. पण त्याचा tradeoff मोठा आहे. code डिफॉल्टने बंद झाल्यावर सहयोग कठीण होतो, बाह्य पुनरावलोकन कमी होते, आणि healthcare operations व data systems घडवू शकणाऱ्या software वर सार्वजनिक दृश्यता कमी होते.
मोठ्या चर्चेची चाहूल
NHS चा निर्णय ब्रिटनपलीकडेही महत्त्वाचा आहे, कारण अनेक सार्वजनिक संस्था हाच प्रश्न विचारत आहेत. AI युगातील सुरक्षा धोके open-source publication मागची डिफॉल्ट गृहितके बदलतील का? की openness मधून मागे हटणे म्हणजे दीर्घकालीन लवचिकता गमावून अल्पकालीन नियंत्रणाची भावना मिळवणे?
याचे उत्तर एकच असेल असे नाही. काही code bases खरोखर संवेदनशील operational details उघड करू शकतात, जी सार्वजनिक होऊ नयेत. इतर काही बाह्य scrutiny नसल्यास कमी सुरक्षित होऊ शकतात. भीतीऐवजी पुराव्याच्या आधारे हे वेगळे ओळखणे हेच खरे आव्हान आहे.
हा निर्णय काय सूचित करतो
तात्काळ संदेश असा की तांत्रिक पुरावा वादग्रस्त असतानाही advanced AI models आधीच प्रत्यक्ष संस्थात्मक धोरणावर प्रभाव टाकत आहेत. NHS England सॉफ्टवेअर कसे हाताळायचे याबाबत बदल करण्यापूर्वी एकमताची वाट पाहत नाही. ते proactive पद्धतीने default-closed भूमिकेकडे जात आहे.
हा दृष्टिकोन सुरक्षा सुधारेल की नाही, ते अजून स्पष्ट नाही. मात्र AI security वरील वाद आता सिद्धांताच्या पलीकडे गेला आहे, हे नक्की. तो आता procurement rules, publication standards, आणि सार्वजनिक क्षेत्रातील संस्थांमध्ये digital transparency च्या सीमारेषा पुन्हा ठरवत आहे.
जर अधिक सरकारांनी NHS मार्ग स्वीकारला, तर AI चा एक मोठा अप्रत्यक्ष परिणाम अधिक शांत internet असू शकतो: कमी सार्वजनिक code, कमी open repositories, आणि सार्वजनिक digital infrastructure कसे दिसावे याची नव्याने व्याख्या.
हा लेख New Scientist च्या रिपोर्टिंगवर आधारित आहे. मूळ लेख वाचा.
Originally published on newscientist.com

