بنسلفانيا تطرح قضية ذكاء اصطناعي مرتبطة بالصحة أمام المحكمة

رفعت ولاية بنسلفانيا دعوى ضد Character.AI، متهمة الشركة بتقديم روبوت دردشة بشكل غير قانوني على أنه طبيب مرخّص في الولاية. ووفقًا للمادة الأصلية، تتركز المزاعم على الطريقة التي وُصفت بها شخصية مولدة أو عُرضت للمستخدمين، وليس مجرد وجود محادثات ذات طابع طبي. وهذا التفريق مهم، لأنه ينقل المسألة من نقاش عام حول نصائح الذكاء الاصطناعي إلى سؤال تنظيمي أكثر تحديدًا يتعلق بالتمثيل المهني.

توسعت منتجات الذكاء الاصطناعي المرتبطة بالصحة بسرعة، وغالبًا أسرع من القواعد التي تنظم كيفية تسويقها. كثير من هذه الأنظمة تُقدَّم بوصفها رفقاء أو مساعدين أو أدوات معلوماتية. وتزداد المخاطر القانونية عندما تبدو هذه الأنظمة وكأنها تتجاوز إلى ممارسة مهنية مرخّصة أو توحي زورًا بامتلاك مؤهلات مهنية. وتدل دعوى بنسلفانيا على أن السلطات في الولاية مستعدة لاختبار هذه الحدود أمام القضاء.

المشكلة الأساسية هي التمثيل، لا القدرة فقط

يقول النص الأصلي إن بنسلفانيا تزعم أن Character.AI قدّمت روبوت دردشة بشكل غير قانوني على أنه طبيب مرخّص. وحتى من دون نص الشكوى الكامل، تبقى هذه المزاعم ذات دلالة كبيرة. فقد تعامل المنظمون منذ زمن طويل مع ممارسة الطب من دون ترخيص والتضليل بشأن المؤهلات الطبية بوصفهما قضايا عالية الخطورة تتعلق بحماية الجمهور. وإذا صُوِّر روبوت دردشة بطريقة توحي بأن هناك طبيبًا حقيقيًا مرخّصًا يقف خلفه، فقد ترى السلطات أن ذلك مختلف جذريًا عن مساعد محادثة عام يتحدث عن موضوعات صحية.

وهذا أحد التوترات القانونية الأساسية في الذكاء الاصطناعي التطبيقي. فالنماذج اللغوية الكبيرة يمكنها إنتاج إجابات سلسة تبدو واثقة في مجالات تتطلب الثقة والخبرة. وقد لا يميز المستخدمون دائمًا بين محاكاة الخبرة والإشراف المهني الحقيقي، خاصة عندما يكون المنتج مبنيًا حول شخصيات شبيهة بالحقيقة. وهذه الفجوة بين الانطباع والواقع هي بالضبط المكان الذي يظهر فيه خطر الإنفاذ.