व्यक्तिगत नुकसान से परे

एक वकील जिसने संयुक्त राज्य अमेरिका में कुछ पहली AI चैटबॉट-संबंधित नुकसान के मामलों को तर्क दिया है, चेतावनी दे रहा है कि प्रौद्योगिकी अब केवल कमजोर व्यक्तियों के लिए एक जोखिम नहीं है। एक नई श्रेणी के मामलों के बारे में पहली बार सार्वजनिक रूप से बात करते हुए, वकील कहता है कि AI चैटबॉट्स सामूहिक हताहत घटनाओं के संदर्भ में दिखाई दिए हैं, एक विकास जो AI कंपनियों के लिए कानूनी और नियामक जोखिम को काफी व्यापक बनाता है।

वर्षों से, AI चैटबॉट्स व्यक्तिगत त्रासदियों से जुड़े हुए हैं—ऐसे मामले जहां एक किशोर या संकट में युवा व्यक्ति ने AI के साथ विस्तारित बातचीत की थी, आलोचकों का तर्क है कि विफल उपयुक्त सुरक्षा प्रदान करने या मानव समर्थन के लिए बढ़ाने के लिए। Character.AI के खिलाफ कई उच्च-प्रोफ़ाइल मुकदमे दायर किए गए हैं, आत्महत्या से संबंधित मौतों में योगदान करने का दावा किया जा रहा है। अब एक ही वकील कहता है कि यह पैटर्न कई पीड़ितों को शामिल करने वाले मामलों तक बढ़ रहा है।

सुरक्षा अंतराल

केंद्रीय तर्क यह है कि AI कंपनियों ने चैटबॉट्स को बड़े पैमाने पर तैनात किया है—संभवतः दसों मिलियन दैनिक सक्रिय उपयोगकर्ता—जबकि सुरक्षा बुनियादी ढांचा बहुत अधिक धीरे-धीरे विकसित हुआ है। एक फार्मास्यूटिकल कंपनी के विपरीत जो एक नई दवा बढ़ाता है, AI चैटबॉट डेवलपर्स को तैनाती से पहले नैदानिक सुरक्षा परीक्षण करने की आवश्यकता नहीं है। एक सोशल मीडिया प्लेटफॉर्म के विपरीत, उनके पास अक्सर सामग्री संयम और संकट हस्तक्षेप के आसपास कम नियामक दायित्व होते हैं।

वकील के अनुसार, परिणाम यह है कि अधिकतम रूप से आकर्षक और संभाषण करने के लिए डिज़ाइन की गई उत्पादें मानसिक स्वास्थ्य स्थितियों के पूर्ण स्पेक्ट्रम में उपयोगकर्ताओं के साथ बातचीत कर रही हैं, उपयुक्त प्रशिक्षण के बिना यह पहचानने के लिए कि जब कोई बातचीत खतरे की ओर बढ़ रहा है—और जब यह सही करने के लिए विश्वसनीय तंत्र के बिना सही करना चाहिए।

उद्योग प्रतिक्रिया

AI कंपनियां सुरक्षा में निष्क्रिय नहीं रही हैं। Character.AI ने संकट हस्तक्षेप संसाधन, पॉप-अप चेतावनियां, और आयु सत्यापन उपाय जोड़े हैं। OpenAI और Anthropic ने विस्तृत सुरक्षा नीतियां प्रकाशित की हैं और नियमित रूप से लाल-दल अभ्यास आयोजित करते हैं। अधिकांश प्रमुख चैटबॉट प्रदाता अब उपयोगकर्ताओं को आत्महत्या की विचार व्यक्त करने से संकट हॉटलाइन की ओर मार्गदर्शन करते हैं।

लेकिन आलोचकों का तर्क है कि ये उपाय प्रतिक्रियाशील हैं न कि रोकथामकारी, और वास्तविक दुनिया की बातचीत में उनकी प्रभावशीलता—विशेष रूप से विस्तारित, भावनात्मक रूप से अंतरंग सत्र जो पहले से चल रहे मामलों की विशेषता है—अप्रमाणित रहती है। वकील की चेतावनी सुझाती है कि इन सुधारों के साथ भी, गंभीर नुकसान में मामले उभरते रहते हैं।

कानूनी और नियामक निहितार्थ

सामूहिक हताहत का ढांचा महत्वपूर्ण कानूनी वजन रखता है। संयुक्त राज्य अमेरिका में उत्पाद देयता कानून ने निर्माताओं को जवाबदेही के लिए ढांचे स्थापित किए हैं जब दोषपूर्ण उत्पाद बड़े पैमाने पर नुकसान पहुंचाते हैं। क्या एक AI चैटबॉट एक उत्पाद का गठन करता है—और क्या इसके डिजाइन से उत्पन्न पूर्वानुमेय नुकसान अपने डेवलपर्स को जिम्मेदार ठहराया जा सकता है—कई चल रहे मुकदमों में एक जीवंत मुद्दा है।

संचार संविधि अधिनियम की Section 230, जिसने ऐतिहासिक रूप से इंटरनेट प्लेटफॉर्म्स को उपयोगकर्ता-उत्पन्न सामग्री के लिए देयता से बचाया है, AI मामलों में परीक्षा की जा रही है। कोर्ट यह समझने के लिए संघर्ष कर रहे हैं कि क्या AI-उत्पन्न प्रतिक्रिया प्लेटफॉर्म-होस्ट की गई सामग्री या एक उत्पाद आउटपुट का गठन करती है, कानूनी देयता के लिए एक अलग परिणाम।

वेग समस्या

वकील के सार्वजनिक बयानों में एक पुनरावृत्ति विषय क्या कहा जा सकता है "वेग समस्या": AI प्रौद्योगिकी नियामक ढांचे को बढ़ाने की तुलना में तेजी से अग्रिम और तैनात कर रहा है। FDA ने दवाओं को मंजूरी देने के लिए ढांचा विकसित करने में दशकों का समय लिया है; AI कंपनियां कुछ महीनों में सैकड़ों लाख उपयोगकर्ताओं तक प्रोटोटाइप से जा सकते हैं।

अनिवार्य सुरक्षा परीक्षण, घटना रिपोर्टिंग आवश्यकताओं, और AI उत्पादों में मानसिक स्वास्थ्य सुरक्षा के लिए न्यूनतम मानकों के लिए कॉल कांग्रेस और वकालत समूहों में तेजी से बढ़ रहे हैं। कई विधेयक पेश किए गए हैं, लेकिन कोई भी कानून में पारित नहीं हुआ है। यूरोपीय संघ का AI अधिनियम AI सिस्टम्स के लिए जोखिम श्रेणियां स्थापित करता है, लेकिन प्रवर्तन तंत्र अभी भी प्रारंभिक हैं।

नियामक क्या देख रहे हैं

संघीय व्यापार आयोग ने AI उपभोक्ता सुरक्षा मुद्दों में रुचि का संकेत दिया है। राज्य के अटॉर्नी जनरल, जिनमें से कई संघीय समकक्षों की तुलना में प्रौद्योगिकी नियमन पर अधिक आक्रामक हैं, कथित रूप से मुकदमेबाजी परिदृश्य को ध्यान से देख रहे हैं। यदि सामूहिक हताहत के आरोप AI कंपनियों के खिलाफ कानूनी रूप से कार्यकारी साबित होते हैं, तो नियामक और वित्तीय जोखिम AI चैटबॉट्स कैसे विकसित और तैनात किए जाते हैं इसे बदल सकते हैं।

अभी के लिए, प्रौद्योगिकी आगे बढ़ती रहती है। नए मॉडल अधिक सक्षम, अधिक भावनात्मक रूप से बुद्धिमान, और उनके पूर्ववर्तियों की तुलना में अधिक आकर्षक हैं—गुण जो उन्हें कई उपयोगकर्ताओं के लिए सच में उपयोगी बनाते हैं, और संभवतः अधिक प्रभावशाली जब बातचीत गलत हो जाती है।

यह लेख TechCrunch द्वारा रिपोर्टिंग पर आधारित है। मूल लेख पढ़ें.