AI सुरक्षा के लिए एक महत्वपूर्ण दिन
जिसे आलोचक कृत्रिम बुद्धिमत्ता उद्योग के लिए एक महत्वपूर्ण क्षण कह रहे हैं, Anthropic ने मंगलवार को अपनी Responsible Scaling Policy में व्यापक परिवर्तनों की घोषणा की, उन कठोर सुरक्षा उपायों को समाप्त किया जो कंपनी की स्थापना के बाद से इसकी पहचान के लिए केंद्रीय थे। समय स्पष्ट था — घोषणा उसी दिन आई जब यह खबर सामने आई कि रक्षा सचिव Pete Hegseth कंपनी पर दबाव डाल रहे हैं कि वह U.S. सेना को अपने Claude AI मॉडल तक असीमित पहुंच दे।
दो साल से अधिक समय के लिए, Anthropic का RSP AI उद्योग में सबसे ठोस सुरक्षा प्रतिबद्धताओं में से एक रहा है। नीति स्पष्ट लाल लकीरें स्थापित करती है: यदि कंपनी के मॉडल उचित सुरक्षा उपायों के बिना कुछ क्षमता थ्रेसहोल्ड तक पहुंचते हैं, तो विकास रोक दिया जाएगा। वह प्रतिज्ञा अब चली गई है, "जोखिम रिपोर्ट" और "सीमांत सुरक्षा रोडमैप" की अधिक लचीली रूपरेखा द्वारा प्रतिस्थापित की गई है जो कंपनी कहती है कि प्रतिस्पर्धी AI परिदृश्य की वास्तविकताओं को बेहतर ढंग से दर्शाता है।
बदलाव के पीछे का कारण
Anthropic ने परिवर्तनों को सामूहिक कार्य समस्या के लिए एक व्यावहारिक प्रतिक्रिया के रूप में प्रस्तुत किया। "डेढ़ साल बाद, हमारा ईमानदार मूल्यांकन यह है कि इस परिवर्तन के सिद्धांत के कुछ हिस्से वैसे ही विकसित हुए जैसे हमने आशा की थी, लेकिन अन्य नहीं," कंपनी ने अपने अपडेट की गई नीति दस्तावेज़ में लिखा। मूल तर्क सीधा है: यदि एक जिम्मेदार डेवलपर रुकता है जबकि प्रतियोगी आगे दौड़ते हैं, तो परिणाम सबसे विचारशील लोगों के बजाय सबसे कम सावधान अभिनेताओं द्वारा आकार दिया गया एक दुनिया हो सकता है।
"हम महसूस करते थे कि हमारे लिए AI मॉडलों की ट्रेनिंग को रोकना वास्तव में किसी की मदद नहीं करता," Anthropic के मुख्य विज्ञान अधिकारी Jared Kaplan ने Time पत्रिका को बताया। "हमने वास्तव में AI की तेज़ प्रगति को देखते हुए महसूस नहीं किया कि यह हमारे लिए एकतरफा प्रतिबद्धताएं बनाने के लिए समझदारी रखता है... यदि प्रतियोगी आगे बढ़ रहे हैं।" यह तकनीकी क्षेत्र में एक परिचित तर्क है — यह विचार कि जिम्मेदार अभिनेताओं को सीमांत पर रहना चाहिए ताकि यह सुनिश्चित किया जा सके कि सुरक्षा-केंद्रित दृष्टिकोण प्रभाव डालते हैं कि शक्तिशाली तकनीक कैसे विकसित होती है।
लेकिन यह तर्क कंपनी की बढ़ती व्यावसायिक सफलता के साथ असहज रूप से बैठता है। Anthropic ने केवल इस महीने $30 अरब का नया निवेश जुटाया है, जिससे इसका मूल्यांकन $380 अरब हो गया है। इसके Claude मॉडलों को व्यापक प्रशंसा मिली है, विशेष रूप से कोडिंग अनुप्रयोगों के लिए। नवीनतम संस्करणों को कंपनी द्वारा स्वयं इसके सबसे सुरक्षित के रूप में वर्णित किया गया है — यह सवाल उठाता है कि सुरक्षा प्रतिज्ञाओं को ठीक उसी समय कमजोर क्यों करने की आवश्यकता है जब क्षमताएं और संसाधन अपने शिखर पर हों।
Pentagon का अंतिम सूचना
कमरे में हाथी रक्षा विभाग से एक समवर्ती दबाव अभियान है। Axios की रिपोर्टिंग के अनुसार, रक्षा सचिव Hegseth ने Anthropic के CEO Dario Amodei को शुक्रवार तक Claude तक सेना को असीमित पहुंच प्रदान करने या परिणामों का सामना करने के लिए दिया है। इन परिणामों में Defense Production Act को शामिल करना, कंपनी के मौजूदा रक्षा अनुबंधों को समाप्त करना, या Anthropic को आपूर्ति श्रृंखला जोखिम के रूप में नामित करना शामिल हो सकता है — एक कदम जो अन्य Pentagon ठेकेदारों को यह प्रमाणित करने के लिए मजबूर करेगा कि वे अपने वर्कफ़्लो में Claude का उपयोग नहीं कर रहे हैं।
Claude कथित रूप से सेना के सबसे संवेदनशील संचालन के लिए वर्तमान में उपयोग किए जाने वाला एकमात्र AI मॉडल है। "हम इन लोगों के साथ बात करने का एकमात्र कारण यह है कि हमें उनकी जरूरत है और हमें अभी उनकी जरूरत है," एक रक्षा अधिकारी ने Axios को बताया। मॉडल को कथित रूप से Venezuela में हाल के सैन्य संचालन के दौरान उपयोग किया गया था, एक विषय जो Amodei ने रक्षा भागीदार Palantir के साथ उठाया है।
Anthropic ने कथित रूप से Pentagon के लिए अपनी उपयोग नीतियों को अनुकूल करने की पेशकश की है, लेकिन अमेरिकियों की सामूहिक निगरानी या हथियार प्रणालियों के लिए मॉडल के उपयोग को अनुमति देने के खिलाफ सीमाएं खींची हैं जो बिना मानव संलग्नता के फायरिंग करते हैं। सरकारी दबाव का सामना करते हुए ये सीमाएं कायम रहेंगी या नहीं, यह एक खुला प्रश्न बना हुआ है।
मेंढक उबालने की चिंता
सुरक्षा शोधकर्ताओं ने प्रतिक्रियाओं की एक श्रृंखला व्यक्त की है। गैर-लाभकारी METR के निदेशक Chris Painter ने परिवर्तनों को समझदारी भरा लेकिन संभावित रूप से अशुभ के रूप में वर्णित किया। उन्होंने पारदर्शी जोखिम रिपोर्टिंग पर जोर देने की सराहना की लेकिन एक "मेंढक उबालने" प्रभाव के बारे में चिंताएं व्यक्त कीं — यह विचार कि जब कठोर सुरक्षा लाइनें लचीली दिशानिर्देश बन जाती हैं, तो प्रत्येक व्यक्तिगत रियायत उचित लगती है, जबकि संचयी दिशा परेशान करने वाली है।
Painter ने नोट किया कि नई RSP सुझाती है कि Anthropic "विश्वास करता है कि इसे अपनी सुरक्षा योजनाओं में ट्राइएज मोड में स्थानांतरित करने की आवश्यकता है, क्योंकि जोखिम का आकलन और कम करने के तरीके क्षमताओं की गति के साथ तालमेल नहीं रखते हैं।" उन्होंने स्पष्ट रूप से जोड़ा: "यह और भी सबूत है कि समाज AI द्वारा उत्पन्न संभावित विनाशकारी जोखिमों के लिए तैयार नहीं है।"
Google के विकास के समानांतर को नजरअंदाज करना मुश्किल है। खोज दिग्गज ने कुख्यात रूप से "Don't be evil" आदर्श के तहत काम किया था, इससे पहले कि इसे अपनी आचार संहिता से चुप चाप हटा दिया जाए क्योंकि व्यावसायिक दबाव बढ़ा। क्या Anthropic का प्रक्षेपवक्र एक समान चाप का अनुसरण करेगा, यह इस बात पर निर्भर करेगा कि कंपनी आने वाले हफ्तों और महीनों में क्या करती है — विशेष रूप से Pentagon के साथ अपने गतिरोध में।
इसके बाद क्या होता है
नई RSP रूपरेखा बाइनरी स्टॉप/गो निर्णयों को स्नातक मूल्यांकन और सार्वजनिक प्रकटीकरण के साथ प्रतिस्थापित करती है। सिद्धांत में, यह अधिक सूक्ष्म सुरक्षा प्रशासन प्रदान करता है। व्यावहार में, आलोचकों को चिंता है कि यह एकमात्र तंत्र को हटा देता है जो एक महत्वपूर्ण क्षण में विकास में एक विराम को मजबूर कर सकता था।
व्यापक AI उद्योग के लिए, संदेश स्पष्ट है: सुरक्षा के लिए सबसे ज़ोर से प्रतिबद्ध कंपनियां भी यह पाती हैं कि जब मूल्यांकन आसमान छूते हैं, प्रतिस्पर्धा तीव्र होती है, और सरकार फोन करती है, तो यह प्रतिबद्धता बनाए रखना मुश्किल है। सवाल यह नहीं है कि क्या AI विकास धीमा होगा — यह स्पष्ट रूप से नहीं होगा। यह है कि क्या पुनर्निर्मित किए जा रहे गार्डरेल महत्व रखने के लिए पर्याप्त शक्तिशाली हैं।
यह लेख Engadget की रिपोर्टिंग पर आधारित है। मूल लेख पढ़ें



