AI triage मध्ये मानवी अडथळा आहे
Health systems हळूहळू digital front doors कडे वळत आहेत, जिथे chatbots आणि symptom checkers पहिल्या संपर्कातील care मध्ये मोठी भूमिका बजावत आहेत. वचन सरळ आहे: जलद triage, appointments चे चांगले routing, आणि आधीच ताणाखाली असलेली clinical capacity वाढवण्याचा एक मार्ग. पण Medical Xpress ने अधोरेखित केलेल्या एका नव्या अभ्यासातून दिसते की त्या systems ची technical quality हीच एकमेव महत्त्वाची गोष्ट नाही. रुग्ण काय उघड करायचे ठरवतात, त्याची गुणवत्ता तितकीच महत्त्वाची असू शकते.
Nature Health मध्ये प्रकाशित अभ्यासात, 500 सहभागींच्या दोन सामान्य स्थितींसाठी simulated symptom reports लिहिण्यास सांगितले गेले: असामान्य डोकेदुखी आणि flu-like symptoms. काही सहभागींच्या मते त्यांचा अहवाल AI chatbot वाचणार होता, तर इतरांना वाटले की तो human physician पाहणार आहे. मुख्य निष्कर्ष स्पष्ट होता. AI वाचणार आहे असे वाटल्यावर त्यांनी दिलेली माहिती कमी तपशीलवार आणि urgency मोजण्यासाठी कमी उपयुक्त होती.
हे महत्त्वाचे आहे, कारण triage tools कितीही sophisticated असले तरी ते ज्या raw material वर चालतात त्यावर अवलंबून असतात. लोक context सोडून देतात, symptoms कमी स्पष्ट करतात, किंवा clinician पेक्षा software सोबत कमी मोकळेपणाने बोलतात, तर output input जितकाच चांगला राहतो. वैद्यकात ही दरी अकादमिक नाही. एखादा case urgent म्हणून flag होईल का, पुढे ढकलला जाईल का, किंवा पूर्णपणे चुकीचा समजला जाईल का, हे ती ठरवू शकते.
लोक मशीनसमोर “का गप्प बसतात”
या अभ्यासाने लक्ष model performance वरून human behavior कडे वळवले. medical AI भोवतीचा बऱ्याच चर्चांचा भर diagnostic accuracy, error rates, आणि regulatory oversight यावर असतो. त्या महत्त्वाच्या प्रश्न आहेत. पण या संशोधनातून एक शांत समस्या समोर येते: ऐकणारा मशीन आहे असे वाटल्यास रुग्ण वेगळ्या पद्धतीने संवाद साधू शकतात.
संशोधक याला report quality मधील घट असे वर्णन करतात. AI शी बोलत आहोत असे वाटल्यावर लोकांनी डॉक्टरांशी बोलत असल्याच्या तुलनेत कमी तपशील दिला. यावरून computational अडथळा नव्हे, तर psychological barrier सूचित होतो. chatbot योग्य प्रश्न विचारू शकला तरी, वापरकर्ते मानवी भेटीत जितके स्पष्ट असतात तितकेच नसल्यास त्याची उपयुक्तता कमी होते.
याची अनेक व्यावहारिक कारणे असू शकतात. रुग्णांना वाटू शकते की machine सूक्ष्म nuance समजून घेणार नाही. ते privacy बद्दल चिंतित असू शकतात, कमी भावनिकदृष्ट्या गुंतलेले वाटू शकतात, किंवा algorithm ला तपशीलवार वर्णनांपेक्षा छोटे, सोपे उत्तरच हवे असे गृहित धरू शकतात. काही जण AI triage ला मानवी appointment कडे जाण्यासाठीचा bureaucratic gate म्हणूनही पाहू शकतात, अर्थपूर्ण clinical interaction म्हणून नाही, आणि पुढे जाण्यासाठी केवळ किमान माहिती देऊ शकतात.
कारण काहीही असो, परिणाम एकच आहे: कमी complete symptom reporting मुळे urgency assessments ची accuracy कमी होऊ शकते. healthcare setting मध्ये याचा safety आणि efficiency दोन्हींवर परिणाम होऊ शकतो. ज्याने लक्षणे कमी करून सांगितली, त्याला प्रत्यक्षात तातडीची care लागली असताना wait करण्यास सांगितले जाऊ शकते. context नसलेल्या अहवालामुळे रुग्ण चुकीच्या मार्गाने पाठवला जाऊ शकतो, ज्यामुळे AI चे efficiency gains नाहीसे करणारे rework आणि follow-up निर्माण होतात.
अभ्यासाने नेमके काय तपासले
हा experiment मुद्दाम दुर्मिळ edge cases ऐवजी दैनंदिन वैद्यकावर आधारित होता. सहभागी असामान्य डोकेदुखी आणि flu-like symptoms चे वर्णन करत होते, म्हणजे urgent care, primary care, आणि digital triage systems मध्ये नेहमी दिसणाऱ्या तक्रारी. प्रश्न chatbot एखादा दुर्मिळ आजार ओळखू शकतो का हा नव्हता. प्रश्न हा होता की कृत्रिम वाटणाऱ्या श्रोत्यासाठी सामान्य लोक clinically उपयुक्त वर्णने देतील का.
हा फरक महत्त्वाचा आहे. अनेक digital health tools सामान्य, उच्च-आवाजाच्या तक्रारींसाठी बनवले जातात, जिथे सुरुवातीचे sorting वेळ वाचवण्यासाठी आणि clinicians वरील ताण कमी करण्यासाठी असते. routine scenarios मध्येही communication quality कमी झाली, तर ती समस्या scale वर दिसेल.
या संशोधन पथकात University of Würzburg, Charite in Berlin, University of Cambridge, आणि Berlin मधील clinical partners येथील शास्त्रज्ञ होते. त्यांचा निष्कर्ष असा नाही की healthcare मध्ये AI ला जागा नाही. तर तांत्रिक प्रगती एकटी सुरक्षित deployment ची हमी देत नाही. human-machine interaction ला model performance इतक्याच गांभीर्याने design करावे लागेल.
Hospitals, developers, आणि regulators साठी परिणाम
ही निष्कर्षे अशा वेळी आली आहेत जेव्हा providers self-triage systems अधिक आक्रमकपणे स्वीकारत आहेत. staffing shortages सुरू असताना आणि digital intake सामान्य होत असताना, organizations AI symptom collection ला सुरुवातीच्या मानवी संपर्काचा सरळ पर्याय म्हणून पाहू शकतात. हा अभ्यास सांगतो की ती समज कमजोर आहे.
Developers ना अधिक पूर्ण disclosure प्रोत्साहित करणारे interfaces तयार करावे लागू शकतात. त्यात better prompting, symptoms कसे वापरले जातील याची अधिक पारदर्शक स्पष्टीकरणे, मजबूत privacy cues, किंवा transactional वाटणार नाही अशा conversational structures चा समावेश होऊ शकतो. Hospitals ना low-confidence किंवा low-detail reports ओळखून automated urgency decisions final होण्यापूर्वी human review कडे पाठवण्यासाठी guardrails देखील लागतील.
Regulators आणि health leaders साठी, या अभ्यासाने एक नवा evaluation criterion जोडला आहे. Medical AI चे मूल्यमापन फक्त benchmark accuracy किंवा retrospective chart comparisons वर करू नये. ते realistic communication conditions मध्येही तपासले पाहिजे, ज्यामध्ये software सोबत बोलताना रुग्ण वेगळ्या प्रकारे माहिती देतात का याचाही समावेश होतो. नियंत्रित inputs मध्ये चांगले काम करणारे triage tool, प्रत्यक्ष वापरात लोक instinctively स्वतःची माहिती कमी करतात तेव्हा वेगळे वागू शकते.
खरी आव्हान trust आहे
मोठा धडा असा की digital diagnosis ही फक्त model problem नाही. ती trust problem देखील आहे. Healthcare disclosure वर अवलंबून असते: symptoms, fears, timelines, आधीची स्थिती, आणि अनेकदा महत्त्वाचे ठरणारे छोटे तपशील. रुग्णांनी AI वर पुरेसा trust न ठेवता डॉक्टरांप्रमाणे संपूर्णपणे बोलले नाही, तर automation चे फायदे पटकन मर्यादित होतात.
याचा अर्थ वैद्यकीय AI चे भविष्य संपलेले आहे असे नाही. याचा अर्थ deployment ला नेहमीच्या efficiency narrative पेक्षा अधिक काळजी घ्यावी लागेल. symptom checkers च्या पुढील पिढीला फक्त वैद्यकीय माहितीवर reasoning करता येते हेच नाही, तर खऱ्या लोकांकडून ती विश्वासार्हपणे मिळवता येते हेही सिद्ध करावे लागेल.
- AI वाचणार आहे असे वाटल्यावर सहभागींनी symptom reports कमी तपशीलवार दिल्या, असे अभ्यासात दिसले.
- डोकेदुखी आणि flu-like illness साठी simulated reports वापरून 500 लोकांची चाचणी घेण्यात आली.
- Disclosure gap digital self-triage systems ची safety आणि accuracy कमी करू शकते.
- Medical AI मध्ये design, trust, आणि communication raw model capability इतकेच महत्त्वाचे ठरू शकतात.
हा लेख Medical Xpress च्या अहवालावर आधारित आहे. मूळ लेख वाचा.
Originally published on medicalxpress.com



