AI कोडिंग टूल्स पर kernel का जवाब

महीनों की बहस के बाद, Linux kernel प्रोजेक्ट ने AI-सहायित कोड योगदानों के लिए अपनी पहली स्पष्ट नीति औपचारिक रूप से लागू कर दी है। ZDNET के अनुसार, यह नई मार्गदर्शिका न तो प्रतिबंध है और न ही बिना सीमाओं के समर्थन। इसका मूल संदेश सरल है: डेवलपर AI टूल्स का उपयोग कर सकते हैं, लेकिन वे ज़िम्मेदारी उन पर नहीं डाल सकते। Linux की दुनिया में, जहाँ कोड गुणवत्ता, लाइसेंस अनुशासन और समीक्षा मानदंड असाधारण रूप से सख्त हैं, यही अंतर सबसे महत्वपूर्ण है।

यह नीति तीन सिद्धांत स्थापित करती है। पहला, AI एजेंट Signed-off-by टैग नहीं जोड़ सकते, क्योंकि केवल मानव योगदानकर्ता ही kernel के Developer Certificate of Origin के अनुपालन की पुष्टि कर सकते हैं। दूसरा, AI-सहायित सबमिशन में Assisted-by टैग होना चाहिए, जिसमें उपयोग किए गए मॉडल, एजेंट और सहायक टूल्स का नाम हो। तीसरा, मानव सबमिटर को कोड की समीक्षा, लाइसेंस अनुपालन सुनिश्चित करने और उत्पन्न किसी भी बग या सुरक्षा दोष की पूरी ज़िम्मेदारी लेनी होगी। इन नियमों से AI का उपयोग एक छिपे हुए चर से बदलकर योगदान प्रक्रिया का घोषित हिस्सा बन जाता है।

नतीजा कृत्रिम बुद्धिमत्ता के आकर्षण से कम और kernel की जवाबदेही की श्रृंखला को सुरक्षित रखने से अधिक जुड़ा है। Linux kernel सिर्फ एक सॉफ़्टवेयर प्रोजेक्ट नहीं है। यह एक कानूनी और परिचालन प्रणाली है, जहाँ उत्पत्ति, समीक्षा और स्वामित्व के स्पष्ट मानदंड हैं। यदि उत्पन्न कोड बिना पारदर्शी श्रेय के उस प्रणाली में प्रवेश करता है, तो maintainers जोखिम को देख नहीं पाते। नई Assisted-by आवश्यकता इसी कमी को दूर करती है, क्योंकि यह समीक्षकों को स्पष्ट संकेत देती है कि पैच कैसे बनाया गया और कहाँ अतिरिक्त जांच की ज़रूरत हो सकती है।

नाटक नहीं, पारदर्शिता

ZDNET इस दृष्टिकोण को व्यावहारिक बताता है, और यही सही संदर्भ है। नीति यह नहीं मानती कि आधुनिक विकास में AI टूल्स मौजूद नहीं हैं, और न ही उन्हें विश्वसनीय सहयोगी मानती है। इसके बजाय, उन्हें ऐसे टूल्स के रूप में वर्गीकृत किया गया है जिनके आउटपुट का खुलासा होना चाहिए और जिनके परिणाम मनुष्यों के पास बने रहने चाहिए। संभवतः kernel यही एकमात्र स्थिति अपना सकता था। यह प्रोजेक्ट तब अस्पष्ट लेखकीय मॉडल को अनुमति नहीं दे सकता जब कानूनी प्रमाणन और तकनीकी समीक्षा बदलावों को स्वीकार करने की प्रक्रिया के केंद्र में हों।

यह नीति विवाद से भी आकारित हुई। स्रोत पाठ एक ऐसे विवाद की ओर इशारा करता है जो तब तेज़ हुआ जब Nvidia engineer और kernel developer Sasha Levin ने Linux 6.15 के लिए एक पैच जमा किया, जो पूरी तरह AI से उत्पन्न था, जिसमें changelog और tests भी शामिल थे, हालांकि उन्होंने सबमिशन से पहले परिणाम की समीक्षा और परीक्षण किया था। उस घटना ने उस प्रश्न को ठोस रूप दिया जिसका सामना अब कई सॉफ़्टवेयर समुदाय कर रहे हैं: यदि AI किसी पैच के निर्माण में मदद करता है, तो क्या खुलासा करना चाहिए, और उस काम की ज़िम्मेदारी कौन लेता है?

kernel का जवाब इसलिए उल्लेखनीय है क्योंकि यह दोनों चरम स्थितियों को अस्वीकार करता है। यह डेवलपर्स से AI से पूरी तरह बचने की अपेक्षा नहीं करता, और उन्हें automation के पीछे छिपने की भी अनुमति नहीं देता। यह संयोजन Linux से परे भी प्रभावशाली हो सकता है। कई open-source और enterprise प्रोजेक्ट अब भी उत्पन्न कोड के आसपास अपने नियम स्वयं बना रहे हैं। kernel ने अब एक ऐसा मॉडल प्रस्तुत किया है जिसमें खुलासा अनिवार्य है और दायित्व स्थानांतरित नहीं किया जा सकता।

सॉफ़्टवेयर governance के लिए इसका क्या मतलब है

इसका व्यापक महत्व यह है कि AI-सहायित कोडिंग अब केवल productivity का मुद्दा नहीं, बल्कि governance का मुद्दा बनती जा रही है। जो पैच compile हो जाता है, वह ज़रूरी नहीं कि भरोसे के योग्य भी हो। प्रोजेक्ट्स को यह जानना चाहिए कि कोड कहाँ से आया, किसने उसकी समीक्षा की, और आगे चलकर कौन उसका जवाब देगा। उच्च-जोखिम codebases में ये सवाल सुरक्षा, रखरखाव और कानूनी अनुपालन से अलग नहीं किए जा सकते।

यही कारण है कि Assisted-by टैग महत्त्वपूर्ण है, भले ही यह एक छोटी प्रक्रिया-संबंधी बात लगे। यह maintainers को संदर्भ देता है। यह तय कर सकता है कि किसी पैच की समीक्षा कितनी गहराई से होगी। यह AI टूल्स के लापरवाह उपयोग को भी हतोत्साहित कर सकता है, क्योंकि खुलासा अनिवार्य हो जाता है। यदि योगदानकर्ताओं को पता है कि उत्पन्न काम पर अतिरिक्त जांच होगी, तो उनके पास उसे सबमिट करने से पहले कठोर समीक्षा करने की अधिक प्रेरणा होगी।

kernel समुदाय के नए नियम AI-जनित कोड से जुड़ी हर समस्या हल नहीं करते। ZDNET बताता है कि नीति शायद सबसे बड़ी चुनौती को संबोधित नहीं करती। लेकिन यह एक मूल सिद्धांत तय करती है: मशीन सहायता कर सकती है, जवाब मनुष्य को देना होगा। भरोसे पर आधारित सॉफ़्टवेयर पारिस्थितिकी तंत्र में यही वह नियम है जो सबसे अधिक मायने रखता है।

यह कहानी क्यों महत्वपूर्ण है

  • Linux kernel ने अब AI-सहायित योगदानों के लिए एक औपचारिक नीति दर्ज कर दी है।
  • सबमिट किए गए कोड के लिए कानूनी और तकनीकी ज़िम्मेदारी मानव योगदानकर्ताओं पर ही रहती है।
  • अनिवार्य Assisted-by श्रेय अन्य open-source governance मॉडलों को प्रभावित कर सकता है।

यह लेख ZDNET की रिपोर्टिंग पर आधारित है। मूल लेख पढ़ें.