توقعات مرتفعة، وثقة محدودة

يشير استطلاع سويدي جديد إلى مفارقة في قلب تبني الذكاء الاصطناعي في الطب: الناس يريدون أن تكون التقنية أفضل من البشر قبل أن يكونوا مستعدين تمامًا للثقة بها. ووفقًا لدراسة من جامعة غوتنبرغ، يتوقع كل من الأطباء وأفراد الجمهور في السويد أن تفي أنظمة الذكاء الاصطناعي المستخدمة في الرعاية الصحية بمعايير دقة تتجاوز الأداء البشري الحالي، خاصة في الحالات السريرية الخطيرة.

وتعكس النتيجة حقيقة صعبة لمطوري الذكاء الاصطناعي الطبي ولأنظمة الرعاية الصحية. ففي كثير من الصناعات، يمكن إدخال برمجيات جديدة عندما تكون مفيدة فقط أو أفضل قليلًا من حيث التكلفة أو السرعة. أما في الرعاية السريرية، فعتبة القبول الاجتماعي مختلفة. الناس لا يريدون الكفاءة فحسب. إنهم يريدون نظامًا يرتكب أخطاء خطيرة أقل من المهنيين الذين قد يدعمهم أو يحل محلهم جزئيًا. وفي الوقت نفسه، وجد الاستطلاع أن الثقة في الذكاء الاصطناعي لا تزال متوسطة وليست قوية، ما يشير إلى أن التوقعات المرتفعة تسبق الثقة.

استندت الدراسة إلى استطلاع أُرسل في ربيع 2025 إلى 1,000 شخص اختيروا عشوائيًا في السويد، موزعين بالتساوي بين الأطباء وعامة الجمهور. بلغت نسبة الاستجابة 45% بين الأطباء و31% بين الجمهور. طُلب من المشاركين تقييم سيناريوهات مختلفة في الرعاية الصحية وتحديد مستوى الحالات التي يمكن أن يفوتها النظام أو يسيء تقديرها مقارنة بالأداء الحالي للرعاية الصحية.

لماذا ترتفع المعايير عندما يدخل الذكاء الاصطناعي إلى المشهد

كان أحد أوضح النتائج أن التوقعات تشتد في المواقف عالية المخاطر. ففي حالات مثل ألم الصدر، أراد كثير من أفراد الجمهور ألا تُفوت أي حالة. وكان الأطباء أكثر استعدادًا لقبول هامش خطأ ضيق، وهو ما يعكس فهمهم العملي بأن الفحص والتشخيص ينطويان دائمًا على مقايضات بين السلبيات الكاذبة والإيجابيات الكاذبة.

وتكمن أهمية هذا الفرق في أنه يسلط الضوء على مشكلة متكررة في نقاشات نشر الذكاء الاصطناعي. فالدقة ليست رقمًا واحدًا يحسم المسألة. يمكن ضبط النظام بحيث يفوّت عددًا أقل من الحالات الخطيرة، لكن ذلك قد يخلق عددًا أكبر بكثير من الإنذارات الكاذبة. وهذا بدوره قد يطلق فحوصات غير ضرورية، ويستنزف وقت الطاقم، ويعرض المرضى لإجراءات إضافية. وكما أشار الباحث Rasmus Arvidsson في ملخص الدراسة، فإن نظامًا يصنف الجميع على أنهم مرضى سيتجنب تفويت المرض الخطير، لكنه لن يكون طبًا مفيدًا.

وبالتالي، فالتحدي ليس مجرد جعل الذكاء الاصطناعي أكثر حساسية. بل تحديد أي توازن من الأخطاء مقبول، ولمن، وفي أي سياق. وتشير الدراسة إلى أن الجمهور والأطباء لا ينطلقون دائمًا من الموقف نفسه. يبدو أن كثيرًا من المواطنين يضعون الذكاء الاصطناعي تحت معيار شبه صفري للأخطاء في الحالات الخطيرة، بينما اعتاد الأطباء أكثر على العمل داخل نطاق من عدم اليقين السريري.

ومن المرجح أن يؤثر هذا التباين في مسار التبني. فإذا توقع المرضى الكمال شبه التام بينما تشتري المستشفيات أدوات لا تقدم سوى مكاسب تدريجية، فإن رد الفعل العكسي متوقع. ولذلك تدعم الدراسة نقاشًا عامًا أكثر وضوحًا حول المقايضات بدلًا من تسويق الذكاء الاصطناعي كما لو أنه قادر على إلغائها.

الاستخدام ينتشر أسرع من الثقة

وجد الاستطلاع أيضًا أن كثيرًا من المشاركين كانوا يستخدمون الذكاء الاصطناعي بالفعل بشكل ما، لكن عددًا قليلًا نسبيًا عبّروا عن ثقة عالية به. بين الأطباء، كانت الثقة في أدوات الذكاء الاصطناعي المعتمدة على الدردشة مشابهة تقريبًا للثقة في أنظمة الذكاء الاصطناعي المستخدمة بالفعل لتفسير تخطيط القلب ECG. وأكثر من سبعة من كل عشرة أطباء جربوا أدوات تعتمد على الدردشة، لكن قلة منهم كانت تستخدمها في اتخاذ القرارات السريرية.

هذا النمط لافت. فالتجربة واسعة الانتشار، لكن الاعتماد المهني ما زال محدودًا. الأطباء يختبرون الأدوات، ويرون إمكاناتها، وربما يدمجونها بشكل غير رسمي في المهام الخلفية أو توليد الأفكار، لكنهم لم يدمجوها بعد بعمق في القرارات التي يتحملون فيها المسؤولية المباشرة عن نتائج المرضى.

أما بين عامة الجمهور، فقد أفاد نحو واحد من كل عشرة مشاركين بأنه استخدم الذكاء الاصطناعي للحصول على نصيحة صحية. وهذا مهم حتى لو ظلت الثقة متوسطة. فهو يشير إلى أن الذكاء الاصطناعي الموجه للمستهلكين يدخل بالفعل في سلوك الصحة اليومي، قبل وقت طويل من وجود إجماع مؤسسي واسع حول الموقع الذي يجب أن تشغله التقنية في مسارات الرعاية الرسمية.

إن الجمع بين الثقة المتوسطة والاستخدام الملحوظ يخلق لحظة انتقالية. لم يعد الذكاء الاصطناعي افتراضيًا في الرعاية الصحية، لكنه لم يصبح بعد سلطة سريرية موثوقة ومطبعة. وبالنسبة لصانعي السياسات ومقدمي الرعاية، قد تكون هذه المرحلة الوسطى هي الأكثر حساسية. فالناس يتعرضون له بالقدر الكافي لتكوين توقعات، لكنهم ليسوا واثقين بما يكفي لقبول أخطاء كان يمكن التسامح معها في الأنظمة البشرية.

ما الذي تظهره الدراسة وما الذي لا تظهره

  • يريد كل من الأطباء والجمهور في السويد أن يتفوق الذكاء الاصطناعي في الرعاية الصحية على البشر.
  • كانت التوقعات مرتفعة بشكل خاص في الحالات الخطيرة مثل ألم الصدر.
  • كانت الثقة في الذكاء الاصطناعي متوسطة، ولم يذكر سوى عدد قليل من المشاركين ثقة عالية.
  • أكثر من سبعة من كل عشرة أطباء جربوا أدوات الذكاء الاصطناعي المعتمدة على الدردشة، لكن قلة استخدمتها في القرارات السريرية.
  • حوالي واحد من كل عشرة من عامة الجمهور استخدم الذكاء الاصطناعي للحصول على نصيحة صحية.

يشير المؤلفون إلى أن معدل الاستجابة يتماشى مع دراسات مشابهة، لكنه يطرح أيضًا قدرًا من عدم اليقين بشأن مدى تمثيل النتائج للسكان الأوسع. ومع ذلك، تلتقط الدراسة ديناميكية مرشحة للامتداد خارج السويد. يُحاكم الذكاء الاصطناعي الطبي وفق معيار ليس تقنيًا فحسب، بل اجتماعيًا وأخلاقيًا ومقارنًا أيضًا. الناس لا يسألون فقط عما إذا كان الذكاء الاصطناعي قادرًا على العمل، بل عما إذا كان يمكنه التفوق على الرعاية القائمة.

ومن المرجح أن يحدد هذا التمييز المرحلة التالية من الذكاء الاصطناعي في الصحة. فالأنظمة التي تحسن سير العمل لكنها لا تستطيع تبرير ملف أخطائها بوضوح قد تجد صعوبة في كسب الثقة. وحتى الأنظمة التي تُظهر مكاسب قابلة للقياس ستظل بحاجة إلى تواصل شفاف حول ما تفوته، وما تبالغ في الإشارة إليه، وكيف تتقاسم المسؤولية بين الآلة والطبيب. وتشير الدراسة السويدية إلى أن السقف مرتفع بالفعل. أما الاستنتاج الأصعب بالنسبة للصناعة فقد يكون أن الجمهور والأطباء يريدون رفع هذا السقف أكثر قبل أن يكونوا مستعدين للاعتماد على الذكاء الاصطناعي في الطب.

هذا المقال يستند إلى تقرير من Medical Xpress. اقرأ المقال الأصلي.

Originally published on medicalxpress.com