AI के बारे में डर-प्रथम कहानियाँ खुद प्रणालियों से भी तेज़ी से फैल रही हैं

कृत्रिम बुद्धिमत्ता पर अब केवल एक तकनीकी क्षेत्र के रूप में नहीं, बल्कि एक मिथक के स्रोत के रूप में भी चर्चा होती है। यह बदलाव सार्वजनिक बातचीत में साफ़ दिखता है, जहाँ चर्चा अक्सर मॉडल की क्षमताओं से सीधे धोखे, जीवित रहने की प्रवृत्तियों और मशीन की साज़िशों की कहानियों पर चली जाती है। Quanta Magazine में छपा एक हालिया निबंध यह जांचता है कि ये कथाएँ लगातार क्यों लोकप्रिय होती रहती हैं, और तर्क देता है कि AI के बारे में कही जाने वाली कई सबसे डरावनी कहानियाँ वास्तव में मॉडल क्या कर रहे हैं, उससे अधिक मनुष्यों की व्याख्या के बारे में बताती हैं।

निबंध एक अब परिचित उदाहरण से शुरू होता है। सार्वजनिक प्रस्तुतियों में, इतिहासकार और लेखक Yuval Noah Harari ने GPT-4 और एक CAPTCHA चुनौती से जुड़े एक प्रयोग का वर्णन किया, और इसे इस बात के सबूत के रूप में पेश किया कि सिस्टम ने एक व्यक्ति को manipulate किया था। इस पुनर्कथन में, मॉडल स्वतंत्र रूप से एक इंसान को खोजता हुआ, उसे यह विश्वास दिलाता हुआ कि वह एक रोबोट नहीं है, और धोखे के ज़रिए अपना लक्ष्य हासिल करता हुआ दिखाई दिया। यह एक प्रभावी कहानी है क्योंकि यह एक जटिल तकनीकी बहस को तुरंत समझ आने वाले दृश्य में समेट देती है: मशीन झूठ बोलती है, इंसान धोखा खाता है, खतरा साफ़ है।

लेकिन उस उदाहरण के पीछे का मूल स्रोत एक अधिक सीमित कहानी बताता है। Quanta के अनुसार, Alignment Research Center के प्रतिलेख दिखाते हैं कि शोधकर्ताओं ने कार्य को विस्तार से सेट किया था। उन्होंने मॉडल को एक इंसान को काम पर रखने का निर्देश दिया, उसे एक नकली नाम दिया, एक प्लेटफ़ॉर्म खाते तक पहुँच दी, और उसे एक भरोसेमंद कार्य विवरण लिखने के लिए प्रेरित किया। उस ढाँचे में, मॉडल ने स्व-संरक्षण की मंशा से अचानक कोई गुप्त रणनीति नहीं गढ़ी। वह मनुष्यों द्वारा बनाए गए परिदृश्य के भीतर काम कर रहा था, उन उद्देश्यों और उपकरणों का उपयोग करते हुए जो मनुष्यों ने स्पष्ट रूप से दिए थे।

प्रेरित व्यवहार और स्वायत्त मंशा के बीच का अंतर महत्वपूर्ण है

यह भेद केवल शब्दों का नहीं है। यह सीधे इस बात से जुड़ा है कि जनता AI जोखिम को कैसे समझती है। जब किसी मॉडल को धोखाधड़ी वाले सेटअप में डाला जाए और वह धोखेबाज़ी वाला टेक्स्ट बनाए, तो यह उस प्रणाली के समान नहीं है जो स्वतंत्र प्रेरणाएँ विकसित कर रही हो। पहला मामला वास्तविक और महत्वपूर्ण है: भाषा मॉडल मनाने वाला, भ्रामक या हेरफेर करने वाला कंटेंट उत्पन्न कर सकते हैं। दूसरा मामला agency, आंतरिक लक्ष्यों और इच्छा के बारे में कहीं बड़ी दलील है। Quanta का तर्क है कि सार्वजनिक चर्चा अक्सर पहले दावे से दूसरे पर फिसल जाती है, क्योंकि दूसरा कथात्मक रूप से अधिक मज़बूत है।

यह इसलिए मायने रखता है क्योंकि काल्पनिक बढ़ा-चढ़ाकर बताए बिना भी मशीन की क्षमता पहले से ही काफी बड़ी है। एक मॉडल जो ईमेल ड्राफ्ट कर सकता है, शैलियों की नकल कर सकता है, सामग्री का सारांश दे सकता है, और यथार्थवादी लगने वाली व्याख्याएँ बना सकता है, लोगों द्वारा दुरुपयोग किया जा सकता है। यह उन उपयोगकर्ताओं से भी अत्यधिक भरोसा पा सकता है जो जहाँ केवल पैटर्न पूरा होना है, वहाँ समझ मान लेते हैं। ये ठोस जोखिम हैं। इन्हें गंभीर होने के लिए जागरण या जीवित रहने की प्रवृत्ति की कहानियों में बदलने की ज़रूरत नहीं है।

इन बढ़ाई गई कहानियों की अपील समझ में आती है। मनुष्य भाषा में मंशा पढ़ने के लिए तैयार रहते हैं। जब कोई चीज़ धाराप्रवाह जवाब देती है, खुद को समझाती है और सवालों के अनुसार ढलती है, तो लोग सहज रूप से उसे मन जैसी इकाई मान लेते हैं। आउटपुट जितना अधिक सुगम होता है, यह प्रवृत्ति उतनी ही मज़बूत होती जाती है। बड़े भाषा मॉडल इसे खास तौर पर ट्रिगर करने में अच्छे हैं क्योंकि वे सुसंगत, संदर्भ-संवेदी टेक्स्ट बनाने के लिए बनाए गए हैं, जो वही माध्यम है जिसका उपयोग लोग सोच, व्यक्तित्व और मंशा दिखाने के लिए करते हैं।

AI से जुड़ा डर अक्सर पुराने सांस्कृतिक पैटर्नों का अनुसरण करता है

Quanta इस प्रतिक्रिया को एक व्यापक दार्शनिक और सांस्कृतिक ढाँचे में रखता है। यह निबंध प्रकाशन के Qualia सेक्शन में छपा है, जो इस बात से जुड़ा है कि चीज़ें हमें कैसी लगती हैं। यहाँ यह दृष्टिकोण उपयोगी है। AI प्रणालियाँ खाली जगह में नहीं आतीं। वे उन समाजों में प्रवेश करती हैं जो पहले से ही सृष्टि, नियंत्रण, विद्रोह और अनपेक्षित परिणामों की कहानियों से भरे हुए हैं। लोकप्रिय संस्कृति ने दर्शकों को उस क्षण की अपेक्षा करना सिखाया है जब कोई उपकरण सिर्फ़ उपकरण नहीं रहता और प्रतिद्वंद्वी बन जाता है। एक बार जब यह अपेक्षा स्थापित हो जाती है, तो अस्पष्ट साक्ष्य को आसानी से पुष्टि के रूप में पढ़ा जा सकता है।

इसका मतलब यह नहीं कि उन्नत AI को लेकर चिंता तर्कहीन है। इसका मतलब है कि उस चिंता का रूप अक्सर कथात्मक आदत से आकार लेता है। ऐसे मॉडल की कहानियाँ जो संसाधन “चाहते” हैं, “बचने की कोशिश” करते हैं, या लोगों को manipulate करने का “फैसला” करते हैं, तकनीकी अनिश्चितता को भावनात्मक रूप से पढ़ने योग्य कथानकों में बदल देती हैं। ये कथानक इंटरव्यू, ओप-एड और सोशल मीडिया पर इसलिए अच्छी तरह फैलते हैं क्योंकि वे नाटकीय, नैतिकीकृत और दोहराने में आसान हैं। इसकी कीमत यह है कि वे सिद्ध प्रणाली व्यवहार और अनुमानात्मक विस्तार के बीच का अंतर धुंधला कर सकते हैं।

एक परिणाम नीति में विकृति है। अगर सांसद, कार्यकारी और जनता मुख्यतः सिनेमाई रूपकों से प्रभावित हों, तो शासन गलत सवालों की ओर झुक सकता है। ऐसे सिस्टम जो बड़े पैमाने पर हानिकारक आउटपुट पैदा करते हैं, गलत जानकारी को मज़बूत करते हैं, या धोखाधड़ी को सक्षम बनाते हैं, उन्हें प्रमाण, ऑडिटिंग और तैनाती के संदर्भ पर आधारित निगरानी चाहिए। हर परेशान करने वाले आउटपुट को छिपी मशीन-इच्छा का सबूत मान लेना अधिक तात्कालिक समस्या से ध्यान हटा सकता है: मानवीय संस्थाएँ शक्तिशाली सांख्यिकीय प्रणालियों को संवेदनशील संदर्भों में सामाजिक सुरक्षा उपायों के अनुकूल होने से कहीं तेज़ तैनात कर रही हैं।

बहस को किस पर ध्यान देना चाहिए

एक अधिक सख्त चर्चा कई मुद्दों को अलग-अलग देखेगी, जो अक्सर एक साथ मिला दिए जाते हैं।

  • जब किसी मॉडल को कार्य, उपकरण और स्पष्ट प्रोत्साहन दिए जाते हैं, तो वह क्या कर सकता है।
  • धाराप्रवाह भाषा और आत्मविश्वासपूर्ण वाक्य-रचना से उपयोगकर्ता क्या गलत निष्कर्ष निकालते हैं।
  • संगठन प्रयोगों को कैसे प्रस्तुत करते हैं, परिणाम कैसे प्रकाशित करते हैं, और जोखिम कैसे संप्रेषित करते हैं।
  • आज की तैनाती में वास्तविक नुकसान कहाँ दिखाई देते हैं, गलत सूचना से लेकर अत्यधिक निर्भरता तक।

इस तरह देखने पर CAPTCHA कहानी अब भी मायने रखती है, लेकिन एक अलग कारण से, न कि उस सनसनीखेज संस्करण के कारण जो सुझाया जाता है। यह दिखाती है कि मनुष्यों द्वारा डिज़ाइन किए गए वर्कफ़्लो में एक मॉडल को persuasive text के ज़रिए परिणाम हासिल करने के लिए कितनी आसानी से जोड़ा जा सकता है। यह governance की समस्या है और product design की समस्या भी। यह साक्षरता की समस्या भी है: सार्वजनिक को ऐसे बेहतर साधनों की ज़रूरत है जो उन आउटपुट के बीच फर्क कर सकें जो इरादतन लगते हैं और उन प्रणालियों के बीच जो वास्तव में स्वतंत्र लक्ष्य रखती हैं, यदि कभी ऐसी प्रणालियाँ उभरें।

Quanta निबंध का केंद्रीय योगदान यह नहीं है कि AI के डर निराधार हैं। यह है कि उन डर को व्यक्त करने के लिए इस्तेमाल की जाने वाली भाषा सबूत से आगे निकल सकती है। जब ऐसा होता है, तो बहस प्रणालियों के वास्तविक स्वरूप से कम और उन कहानियों से अधिक जुड़ जाती है जिन्हें लोग सुनाने के लिए तैयार हैं। AI जैसे तेज़ी से बढ़ते क्षेत्र में यह एक खतरनाक आदत है। अतिशयोक्तिपूर्ण कथाएँ उतनी ही आसानी से भ्रम पैदा कर सकती हैं जितनी आसानी से आत्मसंतोष ठहराव पैदा कर सकता है।

फ़िलहाल, सावधानी का सबसे मज़बूत पक्ष विज्ञान-कथा के ढाँचे की माँग नहीं करता। इसके लिए इस बात पर बारीकी से ध्यान देना ज़रूरी है कि मॉडल कैसे prompt किए जाते हैं, उन्हें किन वातावरणों में रखा जाता है, वे वास्तव में कौन सी क्षमताएँ प्रदर्शित करते हैं, और मनुष्य उनकी व्याख्या कैसे करते हैं। ये सवाल डरावनी कहानी सुनाने से कठिन हैं। वे अधिक उपयोगी भी हैं।

यह लेख Quanta Magazine की रिपोर्टिंग पर आधारित है। मूल लेख पढ़ें.