AI सशस्त्रीकरण दौड़ में एक नया मोर्चा

Claude बड़े भाषा मॉडल्स के परिवार के पीछे AI सुरक्षा कंपनी Anthropic ने खुलासा किया है कि इसकी फ्लैगशिप प्रणाली जिसे यह "औद्योगिक पैमाने" मॉडल आसवन के रूप में वर्णित करता है, का सामना करती है — एक अभ्यास जहां बाहरी अभिनेता व्यवस्थित रूप से Claude को क्वेरी करते हैं ताकि मूल विकास लागत के एक अंश पर प्रतिद्वंद्वी AI प्रणाली बनाने के लिए उपयोग किया जाने वाला प्रशिक्षण डेटा उत्पन्न किया जा सके।

मॉडल आसवन में एक शक्तिशाली AI सिस्टम को सावधानीपूर्वक तैयार किए गए प्रॉम्प्ट खिलाना और इसके आउटपुट का उपयोग करके मूल की क्षमताओं की नकल करने वाली एक छोटी, सस्ती मॉडल को प्रशिक्षित करना शामिल है। जबकि यह तकनीक वर्षों से अनुसंधान समुदाय में जानी जाती है, Anthropic द्वारा खतरे को "औद्योगिक पैमाने" के रूप में चिन्हित करना सुझाता है कि समस्या शैक्षणिक प्रयोग से कहीं आगे एक समन्वित वाणिज्यिक गतिविधि में विकसित हुई है।

आसवन कैसे काम करता है

आसवन के मूल यांत्रिकी सरल हैं। एक हमलावर लक्ष्य मॉडल से हजारों या लाखों प्रॉम्प्ट-प्रतिक्रिया जोड़े उत्पन्न करता है, फिर इन जोड़ों को एक नई मॉडल के लिए प्रशिक्षण डेटा के रूप में उपयोग करता है। परिणामी प्रणाली कच्चे डेटा पर स्क्रैच से प्रशिक्षण के विशाल कम्प्यूटेशनल व्यय के बिना विशिष्ट कार्यों पर लक्ष्य के व्यवहार को लगभग हासिल कर सकती है।

जो औद्योगिक पैमाने के आसवन को विशेष रूप से चिंताजनक बनाता है, वह है इसकी दक्षता। Claude जैसी सीमांत AI मॉडल को प्रशिक्षित करने के लिए कंप्यूट, डेटा क्यूरेशन और इंजीनियरिंग प्रतिभा में सैकड़ों मिलियन डॉलर की आवश्यकता होती है। एक आसवित मॉडल उस क्षमता के काफी हिस्से को डॉलर के सेंट में पकड़ सकता है, जो कंपनियों को AI अनुसंधान की सीमाओं को धकेलने में निवेश करने के लिए आर्थिक प्रोत्साहन को कम करता है।

हमलों को पहचानना और रोकना मुश्किल है क्योंकि वे हजारों API खातों में वितरित किए जा सकते हैं, प्रत्येक स्पष्ट रूप से वैध प्रश्न पूछ रहे हैं। Anthropic ने दर सीमाबद्धता, उपयोग पैटर्न विश्लेषण और अन्य तकनीकी प्रतिरोधी उपाय लागू किए हैं, लेकिन निर्धारित हमलावर पहचान से बचने के लिए अपनी रणनीति को अनुकूल कर सकते हैं।

AI उद्योग के लिए निहितार्थ

आसवन खतरा उस व्यावसायिक मॉडल के दिल को निशाना बनाता है जो AI अनुसंधान को निधि देता है। Anthropic, OpenAI और Google जैसी कंपनियां सीमांत मॉडल विकास में अरबों डॉलर निवेश करती हैं, API पहुंच शुल्क और एंटरप्राइज़ अनुबंधों के माध्यम से इन निवेशों को वसूल करने की अपेक्षा करती हैं। यदि प्रतिद्वंद्वी आसवन के माध्यम से इन मॉडल्स की क्षमताओं को सस्ते में दोहरा सकते हैं, तो सीमांत AI विकास का अर्थशास्त्र अस्थिर हो जाता है।

यह गतिशीलता एक परेशान करने वाली विरोधाभास बनाती है। API के माध्यम से AI सिस्टम को व्यापक रूप से सुलभ बनाना — जो अनुकूलन और राजस्व पीढ़ी के लिए आवश्यक है — एक साथ उन्हें आसवन के लिए उजागर करता है। कंपनियों को खुलेपन और सुरक्षा के बीच संतुलन बनाना चाहिए, एक चुनौती जिसका कोई आसान तकनीकी समाधान नहीं है।

  • मॉडल आसवन मूल प्रशिक्षण लागत के 1% से कम पर एक सीमांत मॉडल के कार्य-विशिष्ट प्रदर्शन का 80-90% दोहरा सकता है
  • यह तकनीक संकीर्ण, अच्छी तरह परिभाषित कार्यों के लिए विशेष रूप से प्रभावी है जहां आसवित मॉडल्स मूल की गुणवत्ता को मैच कर सकते हैं या करीब आ सकते हैं
  • खुले स्रोत के AI मॉडल्स को मालिकाना प्रणालियों के विरुद्ध आसवन से महत्वपूर्ण लाभ दिखाया गया है
  • AI मॉडल आउटपुट को बौद्धिक संपत्ति के रूप में सुरक्षित करने के लिए कानूनी ढांचा अभी भी कम विकसित है

कानूनी और नैतिक ग्रे जोन

मॉडल आसवन की कानूनीता एक अस्पष्ट क्षेत्र में मौजूद है। अधिकांश AI कंपनियों की सेवा की शर्तें प्रतिद्वंद्वी मॉडल्स को प्रशिक्षित करने के लिए उनके आउटपुट का उपयोग करने को प्रतिबंधित करती हैं, लेकिन प्रवर्तन मुश्किल है और कानूनी पूर्वनिर्धारण पतली है। अदालतों ने अभी तक निर्णायक रूप से नियम नहीं दिया है कि क्या AI-उत्पादित आउटपुट बौद्धिक संपत्ति सुरक्षा के लिए योग्य हैं, और अभ्यास की वैश्विक प्रकृति न्यायाधिकार प्रवर्तन को जटिल करती है।

कुछ शोधकर्ता तर्क देते हैं कि आसवन तकनीकी प्रगति का एक प्राकृतिक और लाभकारी हिस्सा है, हार्डवेयर उद्योगों में रिवर्स इंजीनियरिंग के समान। दूसरे तर्क देते हैं कि यह चोरी का एक रूप है जो अंततः बुनियादी अनुसंधान में निवेश को निरुत्साहित करके AI प्रगति को धीमा कर देगा।

Anthropic का सार्वजनिक प्रकटीकरण उद्योग के लिए एक चेतावनी और कार्रवाई का आह्वान दोनों के रूप में कार्य करता है। समस्या को स्पष्ट रूप से नाम देकर, कंपनी आसवन को एक खतरे के रूप में व्यापक मान्यता की पुष्टि करती है और संभवतः नियामक या कानूनी प्रतिक्रियाओं के लिए जमीन तैयार करती है।

आगे का रास्ता

आसवन के विरुद्ध तकनीकी प्रतिरोधी उपाय तेजी से विकसित हो रहे हैं। वॉटरमार्किंग तकनीकें जो मॉडल आउटपुट में पहचानने योग्य हस्ताक्षर एम्बेड करती हैं, उन्नत उपयोग निगरानी प्रणाली, और संविदात्मक प्रवर्तन तंत्र सभी उभरती रक्षा टूलकिट का हिस्सा बनाते हैं। हालांकि, पहुंच और सुरक्षा के बीच मौलिक तनाव को अकेले तकनीक के माध्यम से हल किए जाने की संभावना नहीं है।

विरोधी-आसवन मानकों पर उद्योग सहयोग, AI आउटपुट के लिए स्पष्ट बौद्धिक संपत्ति ढांचे, और संभवतः प्रशिक्षण उद्देश्यों के लिए AI-उत्पादित सामग्री के उपयोग को नियंत्रित करने वाले नए नियम सभी चुनौती को व्यापक रूप से संबोधित करने के लिए आवश्यक हो सकते हैं। फिलहाल, खतरे के लिए Anthropic का ईमानदार आकलन एक तीव्र अनुस्मारक के रूप में कार्य करता है कि AI उद्योग की प्रतिद्वंद्वी गतिशीलता मॉडल प्रदर्शन बेंचमार्क से कहीं अधिक तरीकों से तीव्र हो रही है।

यह लेख AI News द्वारा रिपोर्टिंग पर आधारित है। मूल लेख पढ़ें