AI triage-এ মানবিক bottleneck আছে

Health systems ধীরে ধীরে digital front doors-এর দিকে এগোচ্ছে, যেখানে chatbots এবং symptom checkers প্রথম-সংযোগ care-এ বড় ভূমিকা নিচ্ছে। প্রতিশ্রুতিটি সহজ: দ্রুত triage, appointments-এর আরও ভালো routing, এবং ইতিমধ্যেই চাপে থাকা clinical capacity বাড়ানোর একটি উপায়। কিন্তু Medical Xpress তুলে ধরা নতুন একটি গবেষণা বলছে, ওই systems-এর প্রযুক্তিগত গুণমানই একমাত্র গুরুত্বপূর্ণ বিষয় নয়। রোগীরা কী শেয়ার করতে চান, তার মানও সমানভাবে গুরুত্বপূর্ণ হতে পারে।

Nature Health-এ প্রকাশিত গবেষণায়, 500 জন অংশগ্রহণকারীকে দুইটি সাধারণ অবস্থার জন্য simulated symptom reports লিখতে বলা হয়েছিল: অস্বাভাবিক মাথাব্যথা এবং flu-like symptoms। কিছু অংশগ্রহণকারী ভেবেছিলেন তাদের রিপোর্ট AI chatbot পড়বে, অন্যরা ভেবেছিলেন একজন human physician তা দেখবেন। মূল ফলাফল ছিল স্পষ্ট। AI পড়বে ভেবে অংশগ্রহণকারীরা কম বিস্তারিত, এবং urgency বিচার করতে কম উপযোগী তথ্য দিয়েছিলেন।

এটা গুরুত্বপূর্ণ, কারণ triage tools যতই sophisticated হোক না কেন, তারা যে raw material পায় তার ওপরই নির্ভর করে। মানুষ যদি context বাদ দেয়, symptoms কম বর্ণনা করে, বা clinician-এর তুলনায় software-এর সঙ্গে কম খোলামেলা হয়, তাহলে output-ও input-এর মতোই সীমিত হবে। চিকিৎসায় এই ফাঁক academic নয়। এটি নির্ধারণ করতে পারে কোনো case urgent হিসেবে চিহ্নিত হবে, পিছিয়ে যাবে, নাকি পুরোপুরি ভুল বোঝা হবে।

মানুষ কেন মেশিনের সামনে “চুপ” হয়ে যায়

গবেষণাটি model performance থেকে নজর সরিয়ে human behavior-এর দিকে নিয়ে যায়। medical AI নিয়ে চলমান আলোচনার বড় অংশ diagnostic accuracy, error rates, এবং regulatory oversight ঘিরে। সেগুলো গুরুত্বপূর্ণ প্রশ্ন। কিন্তু এই গবেষণা একটি নীরব সমস্যার দিকে ইঙ্গিত করে: শ্রোতা যদি machine হয়, রোগীরা ভিন্নভাবে কথা বলতে পারেন।

গবেষকেরা এটিকে report quality-এর হ্রাস হিসেবে বর্ণনা করেছেন। AI-এর সঙ্গে কথা বলছেন ভেবে মানুষ ডাক্তারের তুলনায় কম বিস্তারিত দিয়েছেন। এটি computational বাধা নয়, psychological barrier-এর ইঙ্গিত। chatbot সঠিক প্রশ্ন করতে পারলেও, ব্যবহারকারীরা যদি মানবিক সাক্ষাতে যতটা স্পষ্ট হন ততটা না হন, তাহলে তার উপযোগিতা কমে যায়।

এর নানা বাস্তব কারণ থাকতে পারে। রোগীরা ভাবতে পারেন machine সূক্ষ্ম nuance বুঝবে না। তারা privacy নিয়ে উদ্বিগ্ন হতে পারেন, কম আবেগপ্রবণ বোধ করতে পারেন, বা মনে করতে পারেন algorithm ছোট, সরল উত্তরই চায়, বিস্তারিত বর্ণনা নয়। কেউ কেউ AI triage-কে human appointment-এর কাছে পৌঁছানোর bureaucratic gate হিসেবে দেখতেও পারেন, অর্থবহ clinical interaction হিসেবে নয়, তাই ন্যূনতম তথ্য দিয়েই এগোন।

কারণ যাই হোক, ফল একটাই: কম complete symptom reporting urgency assessments-এর accuracy কমাতে পারে। healthcare setting-এ এটা safety এবং efficiency—দুটোকেই প্রভাবিত করতে পারে। যে রোগী উপসর্গ কমিয়ে বলে, তাকে তখন অপেক্ষা করতে বলা হতে পারে যখন তার তাৎক্ষণিক care দরকার। যার রিপোর্টে context নেই, তাকে ভুলভাবে route করা হতে পারে, ফলে rework এবং follow-up লাগবে, আর AI-এর efficiency gains মুছে যাবে।

গবেষণায় কী পরীক্ষা করা হয়েছে

এই experiment ইচ্ছাকৃতভাবে বিরল edge cases নয়, দৈনন্দিন চিকিৎসার ওপর ভিত্তি করে করা হয়েছে। অংশগ্রহণকারীরা অস্বাভাবিক মাথাব্যথা এবং flu-like symptoms বর্ণনা করেছেন, যা urgent care, primary care, এবং digital triage systems-এ সাধারণত দেখা যায়। প্রশ্ন ছিল না chatbot কোনো অদ্ভুত রোগ নির্ণয় করতে পারে কি না। প্রশ্ন ছিল, শ্রোতা artificial বলে মনে হলে সাধারণ মানুষ clinically কার্যকর বর্ণনা দেবেন কি না।

এই পার্থক্য গুরুত্বপূর্ণ। বহু digital health tool সাধারণ, উচ্চ-সংখ্যার অভিযোগের জন্য তৈরি, যেখানে প্রাথমিক sorting-এর উদ্দেশ্য সময় বাঁচানো এবং clinicians-এর চাপ কমানো। যদি routine scenario-তেও communication quality কমে যায়, তাহলে সমস্যা scale-এ দেখা দেবে।

গবেষণা দলে University of Würzburg, Charite in Berlin, University of Cambridge, এবং Berlin-এর clinical partners-এর বিজ্ঞানীরা ছিলেন। তাঁদের সিদ্ধান্ত এই নয় যে healthcare-এ AI-এর জায়গা নেই। বরং প্রযুক্তিগত অগ্রগতি alone নিরাপদ deployment নিশ্চিত করে না। human-machine interaction-কে model performance-এর মতোই গুরুত্ব দিয়ে design করতে হবে।

Hospitals, developers, এবং regulators-এর জন্য প্রভাব

এই findings এমন সময়ে এসেছে যখন providers self-triage systems আরও আক্রমণাত্মকভাবে গ্রহণ করছে। staffing shortages চলতে থাকা এবং digital intake সাধারণ হয়ে ওঠার মধ্যে, organizations AI symptom collection-কে প্রাথমিক মানবিক সংযোগের সরল বিকল্প হিসেবে ভাবতে পারে। এই গবেষণা বলছে, সেই ধারণা দুর্বল।

Developers-কে এমন interfaces বানাতে হতে পারে যা আরও পূর্ণ disclosure-কে সক্রিয়ভাবে উৎসাহিত করে। এর মধ্যে better prompting, symptoms কীভাবে ব্যবহার করা হবে তার আরও স্বচ্ছ ব্যাখ্যা, শক্তিশালী privacy cues, বা transactional না শোনায় এমন conversational structures থাকতে পারে। Hospitals-ও low-confidence বা low-detail reports চিহ্নিত করে automated urgency decision final করার আগে human review-এ পাঠানোর guardrails লাগাতে পারে।

Regulators এবং health leaders-এর জন্য, এই গবেষণা নতুন evaluation criterion যোগ করে। Medical AI-কে কেবল benchmark accuracy বা retrospective chart comparisons-এর ভিত্তিতে বিচার করা উচিত নয়। এটিকে realistic communication conditions-এও পরীক্ষা করতে হবে, যার মধ্যে রয়েছে software-এর সঙ্গে কথা বলার সময় রোগীরা ভিন্নভাবে তথ্য দেয় কি না। নিয়ন্ত্রিত inputs-এ ভালো কাজ করা একটি triage tool live use-এ একেবারে ভিন্ন আচরণ করতে পারে, যদি মানুষ instinctively নিজের তথ্য কমিয়ে দেয়।

আসল চ্যালেঞ্জ trust

বড় শিক্ষা হলো, digital diagnosis শুধু model problem নয়। এটি trust problem-ও। Healthcare disclosure-এর ওপর নির্ভর করে: symptoms, fears, timelines, আগের রোগ, এবং ছোট ছোট বিবরণ যা প্রায়ই গুরুত্বপূর্ণ হয়ে ওঠে। রোগীরা যদি AI-কে যথেষ্ট trust না করে clinician-এর মতো সম্পূর্ণভাবে কথা বলে, তাহলে automation-এর সুবিধা দ্রুত সঙ্কুচিত হয়।

এর মানে এই নয় যে medical AI-এর ভবিষ্যৎ শেষ। এর মানে deployment-কে সাধারণ efficiency narrative-এর চেয়ে বেশি সতর্ক হতে হবে। symptom checker-এর পরবর্তী প্রজন্মকে শুধু এটা নয় যে তারা medical information নিয়ে reasoning করতে পারে, বরং বাস্তব মানুষের কাছ থেকে সেটি নির্ভরযোগ্যভাবে আদায় করতে পারে, সেটাও প্রমাণ করতে হবে।

  • অংশগ্রহণকারীরা AI পড়বে ভেবে symptom reports-এ কম বিস্তারিত দিয়েছেন বলে গবেষণায় দেখা গেছে।
  • মাথাব্যথা এবং flu-like illness-এর simulated reports দিয়ে 500 জনকে পরীক্ষা করা হয়েছে।
  • Disclosure gap digital self-triage systems-এর safety এবং accuracy কমাতে পারে।
  • Medical AI-তে design, trust, এবং communication raw model capability-এর মতোই গুরুত্বপূর্ণ হতে পারে।

এই নিবন্ধটি Medical Xpress-এর প্রতিবেদনভিত্তিক। মূল নিবন্ধটি পড়ুন.

Originally published on medicalxpress.com