يتزايد تبني الذكاء الاصطناعي، لكن الثقة لا تتزايد

أصبح من الصعب بشكل متزايد تجنب الذكاء الاصطناعي في الحياة اليومية. فهو يظهر في أماكن العمل، وفي أدوات المستهلكين، وعلى نحو متزايد في البيئات الطبية. لكن دراسة استقصائية جديدة بتكليف من مركز ويكسنر الطبي بجامعة ولاية أوهايو تشير إلى أن ازدياد الظهور لا يولد تلقائيًا ازديادًا في الثقة. ووفقًا للتقرير الأصلي، فإن ثقة الجمهور في الذكاء الاصطناعي في الرعاية الصحية تتراجع حتى مع نمو استخدام هذه التقنية.

يجسد هذا التوتر إحدى المشكلات الأساسية في المرحلة التالية من الذكاء الاصطناعي الطبي. فالتحدي لم يعد فقط ما إذا كانت أنظمة الرعاية الصحية قادرة على نشر هذه الأدوات، بل ما إذا كان المرضى والجمهور الأوسع سيعتقدون أنها تُستخدم بطرق آمنة ومناسبة وجديرة بالثقة.

لماذا يكتسب تراجع الثقة أهمية أكبر في الطب

تحمل الثقة وزنًا غير عادي في الرعاية الصحية لأن السياق فيها شخصي للغاية. قد يتقبل المرء اقتراحات خوارزمية في التسوق أو الترفيه أو برامج المكتب من دون الكثير من الاستثمار العاطفي. أما الرعاية الصحية فمختلفة. فالمخاطر تشمل التشخيص، وقرارات العلاج، والخصوصية، والإحساس الأساسي بأن الطبيب يتصرف بما يحقق مصلحة المريض.

لهذا السبب، يمكن حتى لانخفاض طفيف في الثقة أن يكون مهمًا. فإذا أصبح الناس أكثر تشككًا في الذكاء الاصطناعي في الرعاية الطبية، فقد تمتد الآثار إلى ما هو أبعد بكثير من استطلاعات الرأي العامة. وقد يتردد المرضى في قبول التوصيات المدعومة بالذكاء الاصطناعي، أو يشككون في شرعية الفرز الرقمي أو الإرشاد الآلي، أو يصبحون أكثر حذرًا بشأن كيفية استخدام بياناتهم. وفي قطاع يعتمد على الموافقة والمصداقية، لا تعد الثقة مسألة هامشية، بل جزءًا من بيئة العمل نفسها.

ويأتي هذا الاستنتاج من الاستطلاع لافتًا أيضًا لأنه يظهر في فترة يُقدَّم فيها الذكاء الاصطناعي كثيرًا بوصفه أمرًا لا مفر منه. فقد تحركت المستشفيات والشركات الناشئة وشركات التكنولوجيا بسرعة لوضع الذكاء الاصطناعي كأداة للكفاءة والدعم السريري وتحديث الأنظمة على نطاق أوسع. لكن حتمية النشر لا تعني حتمية القبول العام.

الوضوح قد يزيد التدقيق

أحد أسباب تراجع الثقة حتى مع نمو التبني هو أن الألفة لا تؤدي دائمًا إلى الطمأنينة. أحيانًا تؤدي إلى القلق. ومع ازدياد ظهور الذكاء الاصطناعي في عيادات الأطباء وأنظمة الرعاية الصحية، يصبح لدى الجمهور مزيد من الأسباب لطرح أسئلة صعبة: ما الذي تفعله الأداة بالضبط؟ ومن يتحمل المسؤولية إذا أخطأت؟ هل تدعم حكم الطبيب أم تحل محله بهدوء؟

لا يقدم التقرير المرفق تفصيلات دقيقة لردود الاستطلاع، لكن صياغته كاشفة. فالذكاء الاصطناعي موصوف بأنه حاضر في الوظائف والمنازل والبيئات الطبية، والاستنتاج الرئيسي هو أن ثقة الجمهور في استخدامه في الرعاية الصحية آخذة في الانخفاض. وهذا يشير إلى فجوة بين الوجود والشرعية. فقد يواجه الناس الذكاء الاصطناعي بشكل متزايد، ومع ذلك يظلون غير مقتنعين بأن استخدامه في سياقات الرعاية مفيد أو خاضع للضبط بشكل صحيح.

هذه نمط مألوف في تبني التكنولوجيا. فغالبًا ما ينمو التشكيك العام تحديدًا عندما تنتقل التقنية من وعد نظري إلى صنع قرار في العالم الحقيقي. وفي الطب، يكون هذا الانتقال حساسًا على نحو خاص لأن الجمهور يتوقع معايير عالية من الأدلة والرقابة والمساءلة البشرية.

مشكلة الاتصال حول الذكاء الاصطناعي الطبي

قد تواجه مؤسسات الرعاية الصحية أيضًا تحديًا في التواصل. يمكن تقديم الذكاء الاصطناعي على أنه ترقية تقنية، لكن المرضى يميلون إلى تقييمه بمصطلحات إنسانية. فهم يريدون معرفة ما إذا كان يغيّر جودة الرعاية، وما إذا كان يؤثر في دور الأطباء، وما إذا كان يتعامل مع المعلومات الحساسة بمسؤولية.

إذا بقيت هذه الأسئلة بلا إجابة، فقد تتآكل الثقة حتى قبل أن يتعرض المريض لضرر مباشر. وبعبارة أخرى، لا يتطلب الشك فشلًا دراميًا. فقد ينشأ من الغموض أو المبالغة أو من انطباع بأن المؤسسات تتحرك بسرعة أكبر مما كان الجمهور مستعدًا لمنحه الإذن به.

وتشير صياغة الاستطلاع إلى هذا النوع من المناخ تحديدًا. فالذكاء الاصطناعي ينتشر. والناس يعرفون ذلك. لكن مجرد الوعي به لا يولد الثقة. وينبغي أن يكون ذلك إنذارًا للأنظمة الطبية التي ركزت كثيرًا على القدرة، ولم تولِ ما يكفي من الاهتمام لقابلية التفسير والحوكمة والوضوح الموجّه للمريض.

ما الذي يشير إليه هذا الاستنتاج للمستشفيات والأطباء

بالنسبة للمستشفيات والأطباء، فإن الدرس العملي هو أن النشر التقني لا يمكن فصله عن القبول الاجتماعي. فقد تحسن أداة ما سير العمل أو تقدم دعمًا للقرار، لكن قيمتها تتقيد إذا كان المرضى لا يثقون في السياق الذي تُستخدم فيه. وهذا ينطبق بشكل خاص عندما يلامس الذكاء الاصطناعي التشخيص أو التواصل أو التوثيق أو تخطيط العلاج.

وقد ينتهي الأمر بالأطباء إلى تحمل الجزء الأكبر من عبء شرح هذه الأنظمة للمرضى. وحتى عندما تُبنى الأداة أو تُشترى من مكان آخر، فإن عيادة الطبيب هي المكان الذي يواجه فيه الناس استخدامها بشكل مباشر في كثير من الأحيان. وإذا كانت الثقة تتراجع، فقد يحتاج العاملون في الخطوط الأمامية إلى قضاء وقت أطول في شرح متى يُستخدم الذكاء الاصطناعي، وما الدور الذي يؤديه، وأين يظل الحكم البشري هو المركز.

وفي الوقت نفسه، قد تحتاج المؤسسات إلى إعادة ضبط الطريقة التي تتحدث بها عن الذكاء الاصطناعي بالكامل. فقد تبدو لغة التسويق حول التحول والكفاءة منفصلة عن ما يريد المرضى سماعه فعلًا. وفي الرعاية الصحية، قد تكون الرسالة الأكثر مصداقية أضيق نطاقًا: ما الذي يفعله النظام، وما الذي لا يفعله، ومن يظل مسؤولًا، وكيف تُحمى مصالح المرضى.

لحظة مفصلية لشرعية الذكاء الاصطناعي الطبي

لا يحسم الاستطلاع الذي كلف به مركز ويكسنر الطبي بجامعة ولاية أوهايو المستقبل طويل الأمد للذكاء الاصطناعي في الرعاية الصحية، لكنه يحدد بالفعل خط صدع. فالتبني والثقة لا يسيران جنبًا إلى جنب. وقد يرى الجمهور مزيدًا من الذكاء الاصطناعي بينما يشعر بقدر أقل من اليقين بشأن مكانه في الرعاية الطبية.

وهذا مهم لأن الفصل القادم من الذكاء الاصطناعي الطبي سيعتمد بقدر كبير على الشرعية بقدر اعتماده على الأداء. يمكن تركيب الأدوات بسرعة، لكن بناء الثقة يستغرق وقتًا أطول. ومتى ضاعت، يصبح استعادتها أصعب من الادعاء بها مسبقًا.

إذا أرادت أنظمة الصحة أن يصبح الذكاء الاصطناعي جزءًا من الرعاية الروتينية، فعليها أن تتعامل مع الثقة بوصفها شيئًا يجب كسبه لا افتراضه. وتشير نتيجة الاستطلاع الحالية إلى أن هذا العمل أصبح أكثر إلحاحًا. قد يكون الذكاء الاصطناعي موجودًا بالفعل في الغرفة. والسؤال الأصعب هو ما إذا كان الجمهور يريده هناك وفق الشروط المعروضة الآن.

تعتمد هذه المقالة على تغطية Medical Xpress. اقرأ المقال الأصلي.