जब AI मानसिक स्वास्थ्य कतार का प्रबंधन करता है

Kaiser Permanente के थेरेपिस्ट हड़ताल पर हैं, और उनकी केंद्रीय शिकायतों में से एक एक नया AI-संचालित रोगी स्क्रीनिंग और रूटिंग सिस्टम है जो क्लीनिकल स्टाफ कहते हैं खतरनाक गलतियां कर रहा है। कई Kaiser सुविधाओं में थेरेपिस्ट कहते हैं कि सिस्टम उन रोगियों को गलत तरीके से वर्गीकृत कर रहा है जो आत्महत्या की विचारधारा या तीव्र मानसिक स्वास्थ्य संकट प्रस्तुत करते हैं, और कई रोगी एल्गोरिथम रूटिंग निर्णयों के परिणामस्वरूप गंभीर नुकसान के करीब आ गए हैं। Kaiser ने सिस्टम का बचाव किया है, लेकिन थेरेपिस्ट के खाते एक परेशान करने वाली तस्वीर पेश करते हैं जहां AI को एक संदर्भ में तैनात किया जा रहा है जहां त्रुटियां अपरिवर्तनीय परिणाम हो सकती हैं।

AI स्क्रीनिंग सिस्टम कैसे काम करता है

मानसिक स्वास्थ्य सेटिंग्स में रोगी स्क्रीनिंग परंपरागत रूप से मानकीकृत प्रश्नावलियों पर निर्भर करती है—PHQ-9 जैसे उपकरण या Columbia Suicide Severity Rating Scale—नैदानिक साक्षात्कार के साथ रोगी के मानसिक स्वास्थ्य की तात्कालिकता और प्रकृति का आकलन करने के लिए। Kaiser AI सिस्टम कथित रूप से इस प्रक्रिया के हिस्सों को बढ़ाता है या कुछ मामलों में बदलता है, सेवन प्रश्नावली में प्रतिक्रियाओं, रोगी इतिहास डेटा, और व्यवहारिक संकेतों का उपयोग करके एक जोखिम स्कोर और रूटिंग सुझाव उत्पन्न करता है जो निर्धारित करता है कि रोगी को कितनी जल्दी देखा जाता है और किस प्रकार के प्रदाता द्वारा।

सिद्धांत रूप में, AI-सहायक स्क्रीनिंग स्थिरता में सुधार कर सकता है और मानव सेवन मूल्यांकन में अंतर्निहित परिवर्तनशीलता को कम कर सकता है। जो रोगी व्यस्त दिन पर सेवन के दौरान प्रस्तुत होता है जब सेवन कर्मचारी अभिभूत होते हैं, उसे आदर्श स्थितियों में प्रस्तुत होने वाले रोगी के समान एल्गोरिथम मूल्यांकन मिलेगा। सिस्टम रोगी के इतिहास में जोखिम कारकों की पहचान भी कर सकता है जो एक व्यस्त मानव स्क्रीनर को याद आ सकता है।

थेरेपिस्ट क्या रिपोर्ट कर रहे हैं

थेरेपिस्ट के खाते एक ऐसे सिस्टम का वर्णन करते हैं जो विपरीत दिशा में विफल हो रहा है। कई क्लीनिकियन ऐसे उदाहरणों की रिपोर्ट करते हैं जहां रोगियों ने अपनी सेवन प्रश्नावली में आत्महत्या की विचारधारा व्यक्त की थी, उन्हें दिनचर्या नियुक्तियों के बजाय तत्काल स्लॉट के लिए नियुक्त किया गया था, क्योंकि AI सिस्टम रोगी के इतिहास में अन्य कारकों को वर्तमान सेवन में तीव्र संकट सूचकों की तुलना में अधिक भारी वजन दे रहा था।

एक वाक्य जो विवाद के मीडिया कवरेज के माध्यम से गूंज गया है, वह है "धन्य है कि वे अभी भी जीवित हैं"—एक सूत्रीकरण जो थेरेपिस्ट द्वारा उपयोग किया जाता है जो उन रोगियों का वर्णन करता है जो गलत तरीके से कम-प्राथमिकता रूटिंग के बाद प्रतीक्षा अवधि के माध्यम से बने रहे। क्या कोई रोगी वास्तव में सिस्टम के परिणामस्वरूप गंभीर नुकसान से पीड़ित हुआ, यह विवादास्पद रहता है; Kaiser का दावा है कि सिस्टम स्थापित क्लीनिकल सुरक्षा मानकों के भीतर काम करता है, जबकि थेरेपिस्ट कहते हैं कि वे जो निकट-मिस देख रहे हैं, वह बताता है कि वे मानक अपर्याप्त हैं।

उच्च-दांव ट्रिएज में एल्गोरिथमिक औसत का जोखिम

इस विवाद में मुख्य तनाव मशीन लर्निंग को क्लीनिकल ट्रिएज पर लागू करने की व्यापक समस्या को दर्शाता है। AI सिस्टम ऐतिहासिक डेटा पर प्रशिक्षित होते हैं और प्रशिक्षण वितरण में औसत प्रदर्शन के लिए अनुकूलित होते हैं। मानसिक स्वास्थ्य स्क्रीनिंग में, रोगी जो सुरक्षा के दृष्टिकोण से सबसे महत्वपूर्ण हैं, वे बिल्कुल वे हैं जो आउटलेयर हैं—व्यक्ति जिनका वर्तमान संकट प्रस्तुति उनके ऐतिहासिक आधारभूमि से काफी भिन्न होती है, या जो तरीकों से भाषा को कम करते हैं जिसे प्रशिक्षित क्लीनिकियन चेतावनी के संकेत के रूप में पहचानते हैं, लेकिन पाठ-आधारित AI सिस्टम चेहरे के मूल्य पर व्याख्या कर सकते हैं।

क्लीनिकल अंतर्ज्ञान—थेरेपिस्ट का टोन, शरीर की भाषा, संकोच, और संदर्भ का पठन—प्रश्नावली प्रतिक्रियाओं को कैप्चर नहीं करती है। एक स्क्रीनिंग सिस्टम जो मुख्य रूप से प्रश्नावली डेटा और ऐतिहासिक रिकॉर्ड पर निर्भर करता है, संकट संकेतों को व्यवस्थित रूप से कम वजन दे सकता है जो एक वास्तविक आपातकाल को एक दिनचर्या नियुक्ति से अलग करते हैं। जब दांव एक रोगी का जीवन होता है, तो संकट संकेतों का व्यवस्थित अंडरवेटिंग बिल्कुल विफलता मोड है जिसे सहन नहीं किया जा सकता।

क्लीनिकल सेटिंग्स में AI के लिए व्यापक निहितार्थ

Kaiser Permanente रोगी रूटिंग और संसाधन आवंटन को प्रबंधित करने के लिए AI को तैनात करने वाला एकमात्र स्वास्थ्य प्रणाली नहीं है। पूरे संयुक्त राज्य में स्वास्थ्य प्रणालियां समान उपकरण लागू कर रही हैं, एकीकृत दक्षता के वादे से आकर्षित होकर जहां प्रदाता की कमी लगातार पहुंच समस्याएं बनाती है। मानसिक स्वास्थ्य सेवा विशेष रूप से गंभीर क्षमता बाधाओं का सामना करता है, जिससे AI-सहायक ट्रिएज की अपील विशेष रूप से मजबूत होती है—और एल्गोरिथम त्रुटियों के जोखिम विशेष रूप से अधिक होते हैं क्योंकि संभावित परिणामों की गंभीरता को देखते हुए।

Kaiser विवाद यह प्रभावित करने की संभावना है कि अन्य स्वास्थ्य प्रणालियां मानसिक स्वास्थ्य संदर्भों में AI स्क्रीनिंग उपकरणों के लिए सत्यापन और पर्यवेक्षण आवश्यकताओं को कैसे संपर्क करती हैं। नियामक, क्लीनिकल पेशेवर निकाय, और स्वास्थ्य प्रणाली प्रशासक सभी इस पर ध्यान दे रहे हैं कि यह कैसे निकलता है, यह जानते हुए कि बड़े पैमाने पर तैनात AI ट्रिएज उपकरण या तो मानसिक स्वास्थ्य देखभाल की पहुंच में उल्लेखनीय रूप से सुधार कर सकते हैं या प्रणालीगत जोखिम बना सकते हैं जो पर्याप्त क्लीनिकल पर्यवेक्षण और त्रुटि-पहचान तंत्र के बिना तैनात होने पर उन लाभों को ओवरराइड कर सकते हैं।

यह लेख The Guardian द्वारा रिपोर्टिंग पर आधारित है। मूल लेख पढ़ें.