व्हिसलब्लोइंग जागतिक स्तरावर
गेल्या काही आठवड्यांपासून, AI उद्योगात स्वतःच्याच वर्तुळातील लोकांकडून सार्वजनिक नाराजीची वाढती लाट दिसून आली आहे. OpenAI आणि Anthropic सारख्या जगातील काही प्रमुख AI कंपन्यांमधील माजी सुरक्षा कर्मचारी आणि संशोधकांनी त्यांच्या मालकांनी सुरक्षा चाचणी कशी हाताळते, मॉडेल्स कसे तैनात करतात आणि संभाव्य धोक्यांविषयी अंतर्गत चेतावणींना कसा प्रतिसाद देतात याबद्दल चिंता व्यक्त केल्या आहेत. या प्रकटीकरणामुळे AI सुरक्षा पद्धती पुरेशा आहेत की नाही आणि शक्तिशाली प्रणाली जबाबदारीने तैनात केली जात आहे की नाही यावर तीव्र वादविवाद सुरू झाला आहे.
आता एक नवीन उपक्रम या प्रकारच्या अंतर्गत अहवालांना जागतिक स्तरावर औपचारिक आणि संरक्षित करण्याचा प्रयत्न करत आहे. Psst, एक डिजिटल सुरक्षित अहवाल देणारे प्लॅटफॉर्म, जगातील कोणत्याही AI कर्मचाऱ्यांना सुरक्षित चॅनेलद्वारे सुरक्षा चिंता नोंदवण्याची आणि सादर करण्याची परवानगी देते, जरी अशा अधिकारक्षेत्रातही जेथे मजबूत व्हिसलब्लोअर संरक्षण कायदे नाहीत. प्लॅटफॉर्मच्या संस्थापक बोर्ड सदस्या, वकील मेरी इनमन यांच्या म्हणण्यानुसार, AI कंपन्यांमधील कर्मचारी त्यांच्या स्थानावर पर्वा न करता कोणत्याही बदलाची भीती न बाळगता संभाव्य नुकसानाबद्दल बोलू शकतील याची खात्री करणे हे उद्दिष्ट आहे.
भूगोल का महत्त्वाचा आहे
व्हिसलब्लोअर संरक्षण वेगवेगळ्या देशांमध्ये खूप वेगळे असते. अमेरिकेत, संघीय आणि राज्य कायद्यांमध्ये गैरव्यवहार उघड करणाऱ्या कर्मचाऱ्यांसाठी काही प्रमाणात संरक्षण आहे, जरी त्यांची प्रभावीता आणि व्याप्ती सतत चर्चेत आहे. युरोपियन युनियनमध्ये, 2019 मध्ये स्वीकारलेला व्हिसलब्लोअर निर्देश सदस्य राष्ट्रांमध्ये संरक्षणाचे मूलभूत स्तर प्रदान करतो, परंतु अंमलबजावणी असमान आहे.
परंतु AI विकास हा एक जागतिक उपक्रम आहे. प्रमुख AI प्रयोगशाळा अनेक देशांमध्ये संशोधन कार्यालये चालवतात आणि प्रतिभा भरती करतात, त्यापैकी बरेचामध्ये व्हिसलब्लोअर संरक्षण कायदे नाहीत. सिंगापूर, भारत किंवा संयुक्त अरब अमिरातीमधील एक सुरक्षा संशोधक त्यांच्या मालकाच्या पद्धतींबद्दल चिंताजनक गोष्टी शोधत असल्यास, त्यांच्या करिअरला धोका निर्माण न करता त्यांना त्यांची चिंता नोंदवण्याचा कोणताही कायदेशीर मार्ग नसेल.
Psst हे तंत्रज्ञान-आधारित उपायाने या समस्येचे निराकरण करण्याचा प्रयत्न करते. कोणत्याही देशातून प्रवेशयोग्य असलेले एन्क्रिप्टेड, अज्ञात अहवाल चॅनेल प्रदान करून, प्लॅटफॉर्म कोणत्याही राष्ट्रीय कायदेशीर फ्रेमवर्कवर अवलंबून नसलेले सुरक्षा जाळे तयार करण्याचे उद्दिष्ट ठेवते. प्लॅटफॉर्मद्वारे सादर केलेले अहवाल कल्पनेच्या स्वरूप आणि तीव्रतेनुसार योग्य नियामक संस्था, शैक्षणिक संशोधक किंवा सार्वजनिक स्वारस्य संस्थांना पाठवले जाऊ शकतात.
AI सुरक्षा प्रकटीकरणाची लाट
Psst च्या उदयास वेळेनुसार महत्त्वाचे आहे. गेल्या वर्षी AI कंपन्यांमधील वर्तमान आणि माजी कर्मचाऱ्यांकडून सार्वजनिक प्रकटीकरणाचे अभूतपूर्व प्रमाण दिसून आले आहे. मिनानक शर्मा यांचे ॲन्थ्रॉपिकमधून (Anthropic) बाहेर पडणे आणि त्यानंतर सुरक्षा पद्धतींबद्दल सार्वजनिक विधाने करणे यामुळे व्यापक लक्ष वेधले गेले, तसेच अनेक माजी OpenAI कर्मचाऱ्यांनी कंपनीच्या व्यावसायिक दबावामुळे त्याच्या सुरक्षा बांधिलकीवर परिणाम होत आहे असे प्रश्नचिन्ह उपस्थित केले.
हे प्रकटीकरण अशा व्यक्तींकडून आले आहे ज्यांच्याकडे बोलण्याची किंमत सहन करण्याची आर्थिक क्षमता, आप्रवासन स्थिती आणि व्यावसायिक प्रतिष्ठा आहे. समान चिंता असलेले बहुतेक AI कर्मचारी या संरक्षणांपासून वंचित आहेत आणि ते शांत राहतात. Psst चा दृष्टिकोन असा आहे की उघड झालेल्या चिंता केवळ बर्फाचे टोक आहेत आणि सुरक्षित अहवाल यंत्रणा उद्योगात सुरक्षा समस्यांची अधिक व्यापक प्रतिमा उघड करू शकते.
सत्यापनाची समस्या
कोणत्याही व्हिसलब्लोअर प्लॅटफॉर्मसमोर असलेले मूलभूत आव्हान म्हणजे सत्यापन. अज्ञात अहवाल, अहवाल देणाऱ्याचे संरक्षण करत असले तरी, ते पडताळणे कठीण आणि नाकारणे सोपे आहे. सुरक्षा त्रुटी असल्याचे आरोप असलेल्या कंपन्या अज्ञात दाव्यांना कमी लेखू शकतात, आणि नावाचा आरोप नसल्यामुळे नियामक किंवा पत्रकारांना तपासणे अधिक कठीण होते.
Psst हे विश्वसनीय मध्यस्थांशी संबंध निर्माण करून हे आव्हान दूर करण्याचा प्रयत्न करते जे अहवाल देणाऱ्याची ओळख उघड न करता अहवालांची सत्यता तपासू शकतात. प्लॅटफॉर्म कर्मचाऱ्यांना अंतर्गत ईमेल, चाचणी परिणाम, बैठकांच्या नोंदी, धोरण कागदपत्रे यासारखी कागदपत्रे सादर करण्यास प्रोत्साहित करते, जी त्यांच्या वैयक्तिक साक्षीच्या स्वतंत्रपणे त्यांच्या चिंतेला पुष्टी देऊ शकतात.
उद्योग आणि नियामक प्रतिसाद
वाढत्या व्हिसलब्लोअर चळवळीला AI कंपन्यांचा प्रतिसाद मिश्रित आहे. काही कंपन्यांनी अंतर्गत चॅनेलद्वारे सुरक्षा चिंता व्यक्त करणाऱ्या कर्मचाऱ्यांचे संरक्षण करण्याच्या सार्वजनिक वचनबद्धता दर्शविली आहे, तर काहींनी गैर-प्रकटीकरण करार आणि इतर कायदेशीर साधनांचा वापर केला आहे, ज्यावर टीकाकारांनी अंतर्गत असंतोष्यावर थंड करणारा प्रभाव टाकण्याचा आरोप केला आहे.
नियामक बारकाईने लक्ष ठेवून आहेत. युरोपियन युनियनचा AI कायदा पारदर्शकता आणि उत्तरदायित्व संबंधित तरतुदी समाविष्ट करतो ज्यामुळे सुरक्षा अहवाल देण्यासाठी औपचारिक चॅनेल तयार होऊ शकतात. अमेरिकेत, AI सुरक्षिततेवरीलCongressional hearings मध्ये AI उद्योगासाठी विशिष्ट व्हिसलब्लोअर संरक्षणाची आवश्यकता यावर स्पर्श केला गेला आहे, परंतु अद्याप कोणतीही व्यापक कायदेशीर अंमलबजावणी झालेली नाही.
AI विकासासाठी याचा अर्थ काय आहे
समर्पित AI व्हिसलब्लोअर पायाभूत सुविधांचे आगमन AI सुरक्षा debaten च्या एका परिपक्वतेचे प्रतिबिंब आहे, जे अमूर्त तात्विक चर्चांमधून व्यावहारिक प्रशासकीय प्रश्नांमध्ये बदलत आहे. AI प्रणाली अधिक शक्तिशाली आणि महत्त्वपूर्ण पायाभूत सुविधा, आरोग्यसेवा, वित्त आणि संरक्षण अनुप्रयोगांमध्ये अधिक खोलवर समाकलित होत असल्याने, अपर्याप्त सुरक्षा पद्धतींचे परिणाम अधिकाधिक गंभीर होत आहेत.
Psst आणि तत्सम उपक्रम हे कबूल करतात की प्रभावी AI प्रशासन केवळ कंपन्यांना स्वतःला नियंत्रित करण्यासाठी किंवा सरकारला बाहेरील नियामक म्हणून कार्य करण्यास अवलंबून असू शकत नाही. ज्या तंत्रज्ञानाच्या सर्वात जवळ असलेल्या - या प्रणाली तयार करणारे संशोधक आणि अभियंते - त्यांना समस्या आढळल्यास इशारा देण्यासाठी सक्षम करणारे यंत्रणांची आवश्यकता आहे, ज्यामुळे त्यांचे करिअर धोक्यात येणार नाही.
अशा प्लॅटफॉर्म्स उद्योगाच्या वर्तनावर अर्थपूर्ण प्रभाव टाकू शकतात की नाही हे पाहणे बाकी आहे. परंतु AI नियामक गती AI विकासाच्या गतीला सतत मागे टाकणाऱ्या काळात, व्हिसलब्लोअर प्लॅटफॉर्म्स एक महत्त्वाचे प्रारंभिक चेतावणी प्रणाली म्हणून काम करू शकतात, ज्यामुळे अन्यथा वास्तविक-जगातील नुकसानीत रूपांतरित होणारी चिंता उघडकीस आणली जाऊ शकते.
हा लेख Rest of World च्या रिपोर्टिंगवर आधारित आहे. मूळ लेख वाचा.




