दो दिनों में दूसरी घटना

OpenAI के सीईओ सैम ऑल्टमैन के घर के पास कथित गोलीबारी से जुड़े मामले में सैन फ्रांसिस्को पुलिस द्वारा दो लोगों की गिरफ्तारी के बाद AI उद्योग के आसपास सुरक्षा चिंताएं और तेज़ हो गईं। स्रोत पाठ के अनुसार, ये गिरफ्तारियां रविवार, 12 अप्रैल 2026 को हुईं, यानी ठीक एक दिन बाद जब 20 वर्षीय एक अन्य व्यक्ति को कथित तौर पर ऑल्टमैन के घर पर मोलोटोव कॉकटेल फेंकने और फिर OpenAI मुख्यालय जाकर इमारत पर हमला करने के आरोप में गिरफ्तार किया गया था।

इस कहानी को खास तौर पर महत्वपूर्ण बनाने वाली बात घटनाओं का क्रम है। यह कोई एक अलग-थलग घटना नहीं है। यह बहुत कम समय में हुई दूसरी प्रतीत होने वाली घटना है, और दोनों ही कृत्रिम बुद्धिमत्ता के सबसे अधिक सार्वजनिक चेहरों में से एक से जुड़ी हैं। इससे यह मामला एक स्थानीय आपराधिक रिपोर्ट से आगे बढ़कर कार्यकारी सुरक्षा, सार्वजनिक शत्रुता और AI के इर्द-गिर्द बढ़ती हुई तनावपूर्ण राजनीति पर एक व्यापक चेतावनी बन जाता है।

सैन फ्रांसिस्को पुलिस विभाग ने कहा कि अधिकारियों ने 12 अप्रैल की सुबह लगभग 2:56 बजे Russian Hill इलाके में संभावित गोलियों की आवाज़ से जुड़ी एक संदिग्ध घटना पर प्रतिक्रिया दी। बाद में जांचकर्ताओं ने पाया कि संभावित गोलीबारी के समय के आसपास दो लोगों वाली एक गाड़ी एक आवास के सामने से गुज़री थी। पुलिस ने वाहन की पहचान 25 वर्षीय Amanda Tom, जो सैन फ्रांसिस्को की निवासी है, के रूप में की। Tom और 23 वर्षीय Muhamad Tarik Hussein को बिना किसी घटना के गिरफ्तार किया गया, और स्रोत पाठ में उद्धृत बयान के अनुसार तीन आग्नेयास्त्र बरामद किए गए।

कथित तोड़फोड़ से लक्षित धमकी तक

स्रोत सामग्री में दी गई कहानी एक बढ़ते हुए पैटर्न का संकेत देती है। निगरानी फुटेज और ऑल्टमैन की सुरक्षा टीम से मिली जानकारी के अनुसार, वाहन में बैठे एक यात्री ने संपत्ति के पास एक राउंड चलाया था। इससे पहले शुक्रवार को, 20 वर्षीय टेक्सास निवासी Daniel Moreno-Gama पर कथित तौर पर ऑल्टमैन के घर पर एक ज्वलनशील उपकरण फेंकने और फिर OpenAI मुख्यालय जाने का आरोप है, जहां उसने कथित तौर पर इमारत के कांच के दरवाज़ों पर कुर्सी से प्रहार किया।

Moreno-Gama पर सोमवार, 13 अप्रैल 2026 को संघीय आरोप लगाए गए। स्रोत पाठ में वर्णित शिकायत कहती है कि वह OpenAI कार्यालय को जलाना और अंदर मौजूद किसी भी व्यक्ति को मारना चाहता था, हालांकि इस विशिष्ट इरादे का सार OpenAI सुरक्षा द्वारा दिया गया था, प्रत्यक्ष उद्धरण नहीं। अधिकारियों ने कथित तौर पर उसके पास से ज्वलनशील उपकरण, केरोसिन का एक जग, एक नीला लाइटर, और एक दस्तावेज़ बरामद किया।

रिपोर्ट का सबसे चिंताजनक पहलू यह है कि उस दस्तावेज़ में AI-विरोधी लेखन और AI कंपनियों से जुड़े कई कार्यकारी, बोर्ड सदस्य और निवेशकों के संदर्भ होने की बात कही गई है। Gizmodo ने स्पष्ट किया कि वह दस्तावेज़ की सामग्री की स्वतंत्र रूप से पुष्टि नहीं कर सका, जो एक महत्वपूर्ण सीमा है। फिर भी, यह आरोप एक ऐसे खतरे के माहौल की ओर इशारा करता है जो सिर्फ निजी नाराज़गी से नहीं, बल्कि कृत्रिम बुद्धिमत्ता और उसके नेतृत्व के प्रति व्यापक वैचारिक शत्रुता से भी आकार लेता है।

AI में लक्षित शत्रुता का अर्थ

ऑल्टमैन टेक उद्योग के सबसे अधिक दिखाई देने वाले चेहरों में से एक हैं, और इसी दृश्यता ने उन्हें AI के जोखिम, शक्ति और दिशा पर सार्वजनिक बहसों का केंद्र बना दिया है। यहां वर्णित घटनाएं संकेत देती हैं कि कम-से-कम कुछ लोगों के लिए ये बहसें सीधे टकराव में बदल रही हैं। यह एक गंभीर विकास है। तकनीकी कार्यकारी लंबे समय से विरोध और आलोचना का सामना करते रहे हैं। शारीरिक हमलों के कथित पैटर्न से जोखिम काफी बढ़ जाता है।

यह केवल एक कंपनी या एक कार्यकारी तक सीमित नहीं है। कृत्रिम बुद्धिमत्ता स्वचालन, आर्थिक विस्थापन, निगरानी, शक्ति-संकेंद्रण, और अस्तित्वगत जोखिमों से जुड़ी व्यापक चिंताओं का प्रतीक बन गई है। इन चिंताओं का अधिकांश हिस्सा राजनीति, आलोचना, संगठन, या सार्वजनिक बहस के माध्यम से कानूनी रूप से व्यक्त किया जाता है। लेकिन जब हिंसा या हिंसा का प्रयास शामिल होता है, तो बहस विवाद से सुरक्षा की ओर मुड़ जाती है।

घटनाओं का लगातार होना विशेष रूप से उल्लेखनीय है। यह संकेत देता है कि AI नेताओं को अब खतरे के जोखिम को उन तरीकों से समझना पड़ सकता है जो सामान्यतः राजनीतिक व्यक्तियों या गहरे सामाजिक संघर्ष के केंद्र में रहने वाले कार्यकारियों से जुड़े होते हैं। यह अभी साफ नहीं है कि यह घटनाओं की एक सीमित लहर है या किसी व्यापक पैटर्न की शुरुआत। लेकिन रिपोर्ट की गई घटनाएं सवाल उठाने के लिए पर्याप्त गंभीर हैं।

तारीखें और विवरण क्यों महत्वपूर्ण हैं

क्योंकि ऐसी कहानियां ऑनलाइन जल्दी विकृत हो सकती हैं, इसलिए समयरेखा महत्वपूर्ण है। कथित मोलोटोव कॉकटेल हमला शुक्रवार, 10 अप्रैल 2026 को हुआ। आवास के पास कथित गोलीबारी रविवार, 12 अप्रैल 2026 की सुबह हुई। पहले संदिग्ध पर संघीय आरोप सोमवार, 13 अप्रैल 2026 को लगाए गए। इन तारीखों को सही रखना जरूरी है क्योंकि यह कहानी बहुत कम समय में हुए दोहराव और बढ़त के बारे में है।

स्रोत में कुछ सीमाएं भी हैं जिन्हें बनाए रखना चाहिए। कुछ दावों को पुलिस बयानों से जोड़ा गया है। अन्य को San Francisco Standard या आपराधिक शिकायत से जोड़ा गया है। Gizmodo ने स्पष्ट रूप से कहा कि वह संदिग्ध के दस्तावेज़ की सामग्री की स्वतंत्र रूप से पुष्टि नहीं कर सका। ये भेद बहुत महत्वपूर्ण हैं, खासकर तेजी से बदलते मामले में जहां आरोप और सत्यापित तथ्य अलग हो सकते हैं।

AI युग के लिए चेतावनी

इस कहानी का गहरा अर्थ किसी सेलिब्रिटी या तमाशे में नहीं है। यह इस बारे में है कि AI के आसपास का तापमान क्या कहता है। यह तकनीक अब केवल एक उत्पाद श्रेणी या शोध सीमा के रूप में नहीं देखी जाती। यह तीव्र सार्वजनिक भावना का केंद्र बन गई है, और दुर्लभ मामलों में वही भावना शारीरिक धमकियों में बदल सकती है।

कंपनियों के लिए इसका मतलब है कि सुरक्षा को अब सार्वजनिक विवाद से अलग एक बैकग्राउंड फ़ंक्शन की तरह नहीं देखा जा सकता। जनता के लिए यह याद दिलाता है कि AI के भविष्य को लेकर तीखी असहमति और हिंसक कार्रवाई के बीच स्पष्ट अंतर बना रहना चाहिए। और कानून प्रवर्तन तथा नीति निर्माताओं के लिए यह सवाल उठाता है कि क्या उभरता हुआ AI क्षेत्र लक्षित जोखिम के एक नए चरण में प्रवेश कर रहा है।

ऑल्टमैन के घर के पास और OpenAI मुख्यालय पर कथित हमले सिर्फ इसलिए नहीं चौंकाते कि उनमें कौन शामिल था। वे इसलिए चौंकाते हैं क्योंकि वे दिखाते हैं कि तकनीक पर बहसें कैसे व्यक्तिगत, कट्टर और खतरनाक बन सकती हैं। अब इस संभावना को पहले से कहीं अधिक गंभीरता से लेना होगा।

यह लेख Gizmodo की रिपोर्टिंग पर आधारित है। मूल लेख पढ़ें

Originally published on gizmodo.com