AI triage நடுவில் சிறப்பாக, முனைகளில் அல்ல
Nature Medicine-ல் வெளியான ஒரு புதிய சுருக்க அறிக்கை, நுகர்வோர் AI-யின் மிக நுணுக்கமான பயன்பாடுகளில் ஒன்றான, மக்கள் மருத்துவ கவனம் எவ்வளவு விரைவில் தேவைப்படுகிறது என்பதைச் சொல்லும் செயல்பாட்டில், மேலும் கூர்மையான எச்சரிக்கையைச் சேர்க்கிறது. அறிக்கையின்படி, ChatGPT Health நடுத்தர அவசரத்தன்மை கொண்ட நிலைகளில் உயர்ந்த துல்லியத்தை காட்டியது, ஆனால் மருத்துவ வரம்பின் இரு முனைகளிலும் அடிக்கடி தவறான முடிவுகளை எடுத்தது. லேசான வழக்குகள் அவை உண்மையில் இருப்பதைவிட அதிக அவசரமானவை என கருதப்பட்டன; உண்மையான அவசர நிலைகள் சில நேரங்களில் மிகவும் குறைவாக மதிப்பிடப்பட்டன.
இந்த முறை முக்கியமானது, ஏனெனில் triage என்பது வெறும் அறிவுத் தேர்வு அல்ல. அது அடுத்ததாக மக்கள் என்ன செய்வார்கள் என்பதை வடிவமைக்கும் ஒரு முடிவு அமைப்பு. ஒரு கருவி சிறிய புகார் கொண்ட ஒருவரை அவசர சிகிச்சை தேடச் சொன்னால், அதன் விளைவாக பதட்டம், தேவையற்ற செலவு, ஏற்கனவே அழுத்தத்தில் இருக்கும் கிளினிக்குகள் மற்றும் அவசர பிரிவுகளுக்கு கூடுதல் சுமை ஏற்படலாம். அதே அமைப்பு ஆபத்தான நிலை உள்ள ஒருவரிடம் அவர்களின் அறிகுறிகள் அவசரமல்ல எனச் சொன்னால், விளைவுகள் மிகவும் கடுமையானதாக இருக்கலாம்.
இந்த புதிய சுருக்க அறிக்கை, இத்தகைய பிழைகளை இன்னும் முழுமையாக முதிர்ச்சி அடையாத தொழில்நுட்பத்தின் சிறிய விசித்திரங்கள் என அல்ல, பாதுகாப்பு அபாயங்கள் எனக் கட்டமைக்கிறது. அந்த வேறுபாடு முக்கியமானது. பெரிய மொழி மாதிரிகள் பெரும்பாலும் அவற்றின் மொழித்திறன் மற்றும் அறிவு விரிவுக்காக மதிப்பிடப்படுகின்றன, ஆனால் triage-க்கு சாத்தியமற்ற சூழலில் கூட தொடர்ச்சியான மருத்துவ முன்னுரிமை அளிக்கும் இன்னும் குறுகியதும் கடினமானதும் தேவைப்படுகிறது. இந்த சுருக்க அறிக்கை, ChatGPT Health நடுத்தர அவசர நிலைகளில் நியாயமான திறன் காட்டக்கூடும், ஆனால் மிகச்சரியான பதில் தேவைப்படும் இடங்களில் அதிக நம்பகத்தன்மை இல்லாமல் இருக்கலாம் எனக் கூறுகிறது.
சராசரியை விட முனைகள் ஏன் முக்கியம்
தலைப்புச் சீரான துல்லியம் ஆபத்தான தோல்வி முறைகளை மறைக்க முடியும். பல சாதாரண அல்லது நடுத்தர அவசர சூழ்நிலைகளில் சிறப்பாக செயல்படும் ஒரு மாதிரி, அரிதான அவசர நிலைகள் அல்லது self-care மற்றும் உடனடி தலையீடு ஆகியவற்றுக்கிடையிலான வேறுபாட்டில் சிரமப்பட்டால், அது இன்னும் பாதுகாப்பற்றதாக இருக்கலாம். உண்மை உலகப் பயன்பாட்டில், அந்தக் கணங்களில்தான் நோயாளிகள் வழிகாட்டலுக்காக ஒரு கருவியை அதிகமாக நம்புவார்கள்.
அறிக்கையின் சுருக்கம், ஒன்றுக்கொன்று எதிரான ஆனால் சம அளவில் முக்கியமான இரண்டு போக்குகளை சுட்டிக்காட்டுகிறது. ஒன்று, அவசரமற்ற நிலைகளை அதிக அவசரமாக மதிப்பிடுவது. இது அமைப்பை எச்சரிக்கையுடன் தோன்றச் செய்யலாம், ஆனால் அதிக எச்சரிக்கை இலவசம் அல்ல. அது சிகிச்சை தேடல் நடத்தை மாற்றக்கூடும், தேவையற்ற முறையில் அதிகமானோரைக் கடுமையான பராமரிப்பு பகுதிகளுக்கு அனுப்பக்கூடும், மேலும் பயனர்கள் தொடர்ந்து கருவியின் பரிந்துரைகளை மிகைப்படுத்தப்பட்டதாகக் கண்டால் நம்பிக்கையை குறைக்கக்கூடும்.
மற்றொரு போக்கு, அவசர நிலைகளை குறைவாக மதிப்பிடுவது; இதுவே அதிகக் கடுமையான கவலை. நேரத்திற்கு உணர்வான நிலையை தவறவிடுவது தான் triage வடிவமைப்பில் சுகாதார அமைப்புகள் தவிர்க்க முயலும் மைய தோல்வி. அவசர நிலைகளை குறைவாக மதிப்பிடும் கருவி மேற்பரப்பில் திறமையானதாக அல்லது அமைதியானதாக தோன்றலாம், ஆனால் உயர்ந்த ஆபத்து சூழ்நிலைகளில் நியாயப்படுத்த கடினமான ஒரு அபாயத்தை அது ஏந்துகிறது.
ஒரே மதிப்பீட்டில் இரு வகை பிழைகளும் தோன்றியது முக்கியமானது. இது மாதிரி வெறும் எச்சரிக்கையானதும் அல்ல, வெறும் அலட்சியமானதும் அல்ல என்பதைச் சொல்கிறது. மாறாக, பல்வேறு சூழ்நிலைகளில் மருத்துவ அவசரத்தன்மையின் நிலையான உள் உணர்வு அதற்கு இல்லாமல் இருக்கலாம். இது ஒரு ஆழமான நம்பகத்தன்மை பிரச்சினை; ஏனெனில் அமைப்பு எப்போதும் ஒரே பக்கமாக தவறு செய்கிறது என்று கருதுவதால் இதைச் சரிசெய்ய முடியாது.
AI-in-health விவாதத்தில் இந்தக் கண்டுபிடிப்புகள் என்ன சேர்க்கின்றன
பொது நோக்க மொழி மாதிரிகள் நோயாளர் சார்ந்த மருத்துவ முடிவுகளில் பாதுகாப்பாக உதவ முடியுமா என்ற பரந்த விவாதத்தில் இந்தச் சுருக்க அறிக்கை வருகிறது. இந்த கருவிகளின் மீதான ஆர்வம் வேகமாக வளர்ந்துள்ளது, ஏனெனில் அவை எளிதில் அணுகக்கூடியவை, உரையாடல்முறையிலானவை, மேலும் பெரும்பாலும் நம்பவைக்கும் விதத்தில் உள்ளன. அவை அறிகுறிகளை சுருக்கலாம், சாத்தியமான நிலைகளை விளக்கலாம், மற்றும் தனிப்பட்டதாகவும் நம்பிக்கையுடனும் தோன்றும் தொனியில் ஆலோசனைகளை உருவாக்கலாம்.
ஆனால் நம்பவைக்கும் தன்மை துல்லியம் அல்ல, நம்பிக்கை என்பதும் calibrate செய்யப்பட்ட சரியான மதிப்பீடு அல்ல. அறிக்கையில் மேற்கோள் காட்டப்பட்ட முந்தைய ஆய்வுகள், AI உருவாக்கிய மருத்துவ ஆலோசனை தவறாக இருந்தாலும் மக்கள் அதனை அளவுக்கு மீறி நம்பக்கூடும் என்ற கவலையை முன்பே எழுப்பியுள்ளன. பிற மேற்கோள் ஆய்வுகள் மருத்துவ முடிவெடுப்பில் உள்ள பலவீனங்களை ஆவணப்படுத்தி, வெளியீட்டுக்கு முன் கடுமையான வெளிப்புற சரிபார்ப்பை வலியுறுத்தியுள்ளன.
இந்த புதிய அறிக்கை AI-க்கு triage-ல் எந்தப் பங்கும் இல்லை என்று சொல்லவில்லை. மாறாக, வலுவான பாதுகாப்பு கோரிக்கைகள் செய்யக்கூடிய இடத்தை அது குறைக்கிறது. செயல்திறன் நடுத்தர அவசர வழக்குகளில் வலுவாகவும், ஆனால் இரு முனைகளிலும் நிலையற்றதாகவும் இருந்தால், பரந்த நுகர்வோர் நிலைநாட்டலை நியாயப்படுத்துவது கடினமாகிறது. பொதுவான, தெளிவற்ற புகார்களுக்கு பயனுள்ளதாக இருக்கும் triage உதவியாளர், பயனர்கள் அதை எப்போது நம்பக்கூடாது என்பதை அறியவில்லை என்றால் இன்னும் பாதுகாப்பற்றதாக இருக்கலாம்.
அவசர பராமரிப்பில் இந்தச் சவால் மேலும் அதிகரிக்கிறது, ஏனெனில் பயனர் பெரும்பாலும் மன அழுத்தத்தில், வலியில், அல்லது வேறொருவருக்காக முடிவு செய்கிறவர் ஆவார். அந்தக் கணங்களில் நுணுக்கம் செயலாக மாறிவிடுகிறது. காத்திரு, அறிகுறிகளை கவனி, அல்லது அவசர பராமரிப்பை நாடு என்ற பரிந்துரை பின்னணித் தகவலாகப் படிக்கப்படுவதில்லை. அது நேரடி வழிகாட்டுதலாகவே எடுத்துக்கொள்ளப்படுகிறது.
டெவலப்பர்கள், மருத்துவர்கள் மற்றும் ஒழுங்குமுறை அமைப்புகளுக்கான விளைவுகள்
டெவலப்பர்களுக்கு இதன் பொருள் நேரடியானது: சுகாதார triage-ஐ பொதுவான chatbot அம்சம் போல மதிப்பிட முடியாது. அரிதான அவசரங்கள், மேலும் தேவையற்ற உயர்வை ஏற்படுத்தும் குறைந்த-அவசர புகார்கள், மற்றும் விளிம்புக் கேஸ் நிலைகள் ஆகியவற்றில் இலக்குவைத்து சோதனை செய்ய வேண்டும். மொத்த மதிப்பெண்கள் போதாது. பாதுகாப்பு என்பது அமைப்பு எங்கு தோல்வியடைகிறது என்பதையே சார்ந்தது, எத்தனை முறை தோல்வியடைகிறது என்பதையே மட்டும் அல்ல.
மருத்துவர்கள் மற்றும் சுகாதார அமைப்புகளுக்கு, நோயாளிகள் பார்க்கும் AI கருவிகளை முன் கதவு வழிகாட்டி அமைப்புகளாக ஏற்கும்போது எச்சரிக்கை தேவை என்பதை இந்தக் கண்டுபிடிப்புகள் வலியுறுத்துகின்றன. இவ்வகை கருவிகள் தகவல் அணுகலை மேம்படுத்தினாலும், அவற்றின் வெளியீட்டுக்கு இன்னும் கட்டுப்பாடுகள், வெளிப்படையான பொறுப்புத்தவிர்ப்பு குறிப்புகள், மற்றும் கவனமாக வடிவமைக்கப்பட்ட உயர்த்தல் பாதைகள் தேவைப்படலாம். பல சூழ்நிலைகளில் உதவிகரமாகத் தோன்றும் ஒரு மாதிரியும், பயனர்கள் அதை மருத்துவ ரீதியாக நம்பத்தகுந்ததாக எடுத்துக்கொண்டால் அபாயத்தை உருவாக்கலாம்.
ஒழுங்குமுறை அமைப்புகள் மற்றும் கொள்கை வகுப்பாளர்களுக்கு, இந்த அறிக்கை symptom checker-கள் மற்றும் clinical decision aid போல செயல்படும் generative AI தயாரிப்புகள் மீது கடுமையான கண்காணிப்பு வேண்டுமென்ற வழக்கை வலுப்படுத்துகிறது. மென்பொருள் ஒரு பெரிய மொழி மாதிரியைப் பயன்படுத்துகிறதா அல்லது வேறு architecture-ஐப் பயன்படுத்துகிறதா என்பதே முக்கியப் பிரச்சினை அல்ல. அதன் அபாயத் தன்மை நிஜமான சூழ்நிலைகளில் நிரூபிக்கப்பட்டுள்ளதா என்பதே முக்கியம்.
இதிலிருந்து கிடைக்கும் பெரிய பாடம் என்னவென்றால், மருத்துவம் உரையாடல் நுண்ணறிவு மற்றும் முடிவு நம்பகத்தன்மை ஆகியவற்றுக்கு இடையில் ஒரு இடைவெளியை வெளிப்படுத்துகிறது. ChatGPT Health பயனுள்ளதாக ஒலிப்பதில் சிறந்ததாக இருக்கலாம், சில சந்தர்ப்பங்களில் உண்மையிலேயே பயனுள்ளதாகவும் இருக்கலாம். ஆனால் இந்த மதிப்பீடு, அவசரத்தன்மை கேள்வியாக இருக்கும் போது, மிகக் குறைவாகப் பொறுத்துக்கொள்ளக்கூடிய இடத்தில்தான் இந்த கருவி அதிகமாக சிரமப்படுகிறது என்பதைச் சொல்கிறது.
இது பராமரிப்பு வழிநடத்தலில் AI-க்கு உள்ள வாய்ப்புகளை மூடவில்லை. ஆனால், இது ஒரு குறுகிய மற்றும் ஆதார-நடத்தப்படும் பங்கிற்கான வாதத்தைக் கொடுக்கிறது. அவசர நிலைகளையும் உள்ளடக்கி, முழு அவசரத்தன்மை வரம்பிலும் நம்பகமான செயல்திறனை இத்தகைய கருவிகள் காட்டும் வரை, அவை நம்பத்தகுந்த triage அதிகாரிகளாக அல்லாமல் தகவல் உதவிகளாகவே பார்க்கப்படுவது சிறந்தது.
இந்தக் கட்டுரை Nature Medicine இன் செய்திப்படிவத்தை அடிப்படையாகக் கொண்டது. மூலக் கட்டுரையைப் படிக்கவும்.
Originally published on nature.com






