أداة ذكاء اصطناعي سريرية سريعة النمو تواجه اختبارًا قانونيًا

تضع دعوى قضائية جديدة في كاليفورنيا واحدة من أسرع تطبيقات الذكاء الاصطناعي حركة في الرعاية الصحية تحت تدقيق قانوني وأخلاقي أشد. فقد رفع عدد من سكان كاليفورنيا دعوى ضد Sutter Health وMemorialCare، زاعمين أن نظام نسخ يعتمد على الذكاء الاصطناعي سجّل زياراتهم الطبية من دون موافقتهم. وتقول الدعوى الجماعية المقترحة، المرفوعة أمام محكمة اتحادية في سان فرانسيسكو، إن المرضى لم يتلقوا إشعارًا واضحًا بأن محادثاتهم بين الطبيب والمريض ستُلتقط، أو تُرسل خارج البيئة السريرية، أو تُعالج عبر أنظمة تابعة لأطراف ثالثة.

وفي صميم القضية توجد Abridge AI، وهي منصة لتوثيق السجلات الطبية تستخدمها أنظمة الرعاية الصحية لالتقاط المحادثات بين الأطباء والمرضى ونسخها وتلخيصها وتحويلها إلى ملاحظات سريرية. وتنتمي هذه الأداة إلى موجة أوسع من ما يُسمى كتّاب السجلات بالذكاء الاصطناعي، الذين يعدون بتقليل عبء التوثيق على الأطباء وتحسين كفاءة سير العمل. وقد تبنت مستشفيات وعيادات في أنحاء الولايات المتحدة هذا الوعد مع استمرار الأعباء الإدارية في الضغط على الأطباء.

الدعوى لا تطعن في فكرة تدوين الملاحظات الآلي من حيث المبدأ. لكنها تطرح سؤالًا أضيق وأكثر أهمية: ما مستوى الإفصاح والموافقة المطلوب عندما تُعالَج محادثة طبية شديدة الحساسية عبر منصة ذكاء اصطناعي، وليس فقط من قبل فريق الرعاية الموجود في الغرفة؟

ما الذي يدعيه المدّعون

وفقًا للشكوى الموصوفة في التقرير المرفق، تلقى المدّعون الرعاية في منشآت مختلفة تابعة لـ Sutter وMemorialCare خلال الأشهر الستة الماضية. وخلال تلك الزيارات، يُزعم أن الطاقم الطبي استخدم Abridge AI، التي تقول الشكوى إنها التقطت وعالجت اتصالات سرية بين الطبيب والمريض. ويؤكد المدّعون أنهم لم يتلقوا إشعارًا واضحًا بأن محادثاتهم ستُسجَّل وتُعالج خارجيًا.

ولا تقتصر الادعاءات على المعلومات العرضية. إذ تقول الشكوى إن التسجيلات شملت معلومات طبية يمكن تحديد هوية صاحبها بشكل فردي، مثل التاريخ الطبي، والأعراض، والتشخيصات، والأدوية، ومناقشات العلاج، وغيرها من الإفصاحات الصحية الحساسة التي جرى الإدلاء بها خلال استشارات سرية. وبصورة عملية، تَعرض الدعوى استخدام النظام ليس مجرد خيار داخلي لسير العمل، بل كحدث لمعالجة البيانات يتضمن بعضًا من أكثر فئات المعلومات الشخصية حماية.

ومن المرجح أن يكون هذا التمييز مهمًا مع تطور القضية. فالخصوصية الطبية لا يحكمها توقع المريض فحسب، بل أيضًا واجبات قانونية متداخلة. وعندما تنقل أنظمة الذكاء الاصطناعي الكلام من غرفة الفحص إلى سلسلة من النسخ والتلخيص والمعالجة من طرف ثالث، فإنها قد تزيد عدد النقاط التقنية والتعاقدية التي تُعالج عندها المعلومات الحساسة. وموقف المدّعين، كما يلخصه التقرير، هو أنه كان ينبغي إبلاغ المرضى بوضوح بأن هذا كان يحدث.

المستشفيات والمورّدون يتحركون بسرعة

تأتي هذه المواجهة القانونية في وقت تنتشر فيه كتّاب السجلات بالذكاء الاصطناعي بسرعة في أنظمة صحية كبرى. ويشير التقرير إلى أن برنامج Abridge تم نشره لدى مؤسسات تشمل Kaiser Permanente وMayo Clinic وDuke Health، وغيرها كثير. وهذا الحجم جزء من سبب أهمية القضية لما هو أبعد من النظامين الصحيين المذكورين. فحكم أو تسوية توضح توقعات الإشعار أو الموافقة قد تؤثر في سوق أوسع بكثير من المدعى عليهم وحدهم.

وقالت Sutter Health إنها على علم بالدعوى. وفي بيان نُقل في النص المصدر، قالت المتحدثة ليز ماديسون إن المنظمة تأخذ خصوصية المرضى على محمل الجد وتلتزم بحماية معلومات المرضى، مضيفة أن التكنولوجيا المستخدمة في بيئاتها السريرية تُقيَّم وتُطبَّق بعناية وفقًا للقوانين واللوائح المعمول بها. وقالت MemorialCare إنها لا تعلق على الدعاوى القضائية المعلقة.

ويشير التقرير أيضًا إلى أن الصحفي الذي كتب المقال وافق شخصيًا على استخدام Abridge خلال زيارات طبية متعددة في منشآت Kaiser في شمال كاليفورنيا خلال العامين الماضيين. وتهم هذه المعلومة لأنها توحي بأن ممارسات الإفصاح قد تختلف بحسب المؤسسة أو الظروف. وبالتالي، قد لا تكون المسألة الناشئة مجرد ما إذا كان يمكن استخدام كتّاب السجلات بالذكاء الاصطناعي بشكل قانوني، بل ما إذا كان كل نظام صحي ينشرها قد بنى عملية موافقة وتواصل يمكن للمرضى فهمها فعلًا.

التوتر الأوسع في الذكاء الاصطناعي الصحي

تقع هذه القضية عند تقاطع قوتين قويتين ومتعارضتين في الطب. من جهة، هناك جاذبية الأتمتة. يقضي الأطباء وقتًا طويلًا في توثيق الزيارات، وتَعِد أدوات الذكاء الاصطناعي التي تحول المحادثات إلى ملاحظات منظمة بتخفيف هذا العبء. ويجادل المؤيدون بأن تقليل الأعمال الورقية يمكن أن يحرر الأطباء للتركيز بشكل مباشر أكثر على رعاية المرضى.

ومن الجهة الأخرى، هناك التوقع الراسخ بأن المحادثات الطبية من بين أكثر التفاعلات خصوصية التي يعيشها الناس. فكثيرًا ما يكشف المرضى في غرفة الفحص عن معلومات لا يشاركونها في أماكن أخرى. وحتى إذا حسّنت الأداة الكفاءة، فقد يرى كثير من المرضى أن إدخال نظام ذكاء اصطناعي تابع لطرف ثالث يمثل تغييرًا ذا معنى في كيفية عمل علاقة الثقة تلك. وهذا ينطبق خصوصًا عندما يقوم النظام بتسجيل الكلام، ومعالجة تفاصيل صحية قابلة للتحديد، وتحويلها إلى مخرجات مولدة آليًا.

وتجسد الدعوى هذه الفجوة بين الراحة التشغيلية والفهم الواعي من جانب المريض. فقد ترى المستشفيات كتّاب السجلات بالذكاء الاصطناعي بوصفهم بنية تحتية إدارية. بينما قد يراهم المرضى بوصفهم مستمعًا جديدًا في الغرفة. وإذا أصبحت هذه التكنولوجيا أمرًا طبيعيًا قبل أن تنضج ممارسات الإفصاح، فمن المرجح أن يتبع ذلك نزاع قانوني.

لماذا قد تكون لهذه القضية آثار واسعة

  • لأنها تستهدف فئة من الذكاء الاصطناعي تنتشر بالفعل عبر شبكات صحية كبيرة.
  • لأنها تركز على الموافقة والإشعار، وهما مسألتان يمكن أن تنطبقا على نطاق واسع حتى لو اختلف البرنامج الأساسي.
  • لأنها تثير أسئلة حول كيفية نقل الكلام الطبي السري ومعالجته بعد تفعيل أدوات الذكاء الاصطناعي.
  • ولأنها قد تدفع مقدمي الرعاية إلى توحيد شروحات أوضح للمرضى قبل استخدام أنظمة التوثيق المحيطية.

بالنسبة لقطاع الرعاية الصحية، الرسالة واضحة. قد يكون التوثيق بالذكاء الاصطناعي فعالًا، لكن الكفاءة وحدها ليست جوابًا كافيًا عندما تكون المعلومات الصحية المحمية على المحك. وإذا كان من المتوقع أن يقبل المرضى التسجيل والمعالجة الآلية في البيئات السريرية، فسيتعين على مقدمي الرعاية إثبات أن الموافقة لم تكن مفترضة أو مخفية أو ضمنية. بل تم الحصول عليها بوضوح. وقد يصبح هذا المعيار أحد الشروط المحددة للمرحلة التالية من تبني الذكاء الاصطناعي في الطب.

تعتمد هذه المقالة على تغطية Ars Technica. اقرأ المقال الأصلي.