الإبلاغ عن المخالفات يصبح عالمياً
في الأسابيع الأخيرة، شهدت صناعة الذكاء الاصطناعي موجة متصاعدة من الرفض العلني من داخل صفوفها. خرج موظفو السلامة السابقون والباحثون في بعض أبرز شركات الذكاء الاصطناعي في العالم، بما فيها OpenAI وAnthropic، علناً بمخاوف حول كيفية تعامل أصحاب العمل مع اختبارات السلامة ونشر النماذج والاستجابة للتحذيرات الداخلية بشأن المخاطر المحتملة. وقد أشعلت هذه الكشوفات نقاشاً حاداً حول مدى كفاية ممارسات سلامة الذكاء الاصطناعي، وما إذا كانت وتيرة التطوير السريعة للصناعة تتجاوز قدرتها على ضمان نشر الأنظمة القوية بمسؤولية.
الآن، تسعى مبادرة جديدة إلى تقنين وحماية هذا النوع من الإبلاغ الداخلي على نطاق عالمي. Psst، منصة إبلاغ رقمية آمنة، تتيح لعمال الذكاء الاصطناعي في أي مكان في العالم توثيق مخاوف السلامة وتقديمها عبر قناة آمنة، حتى في الولايات القضائية التي تفتقر إلى قوانين متينة لحماية المُبلِّغين. تقول ماري إينمان، المحامية وعضو مجلس الإدارة التأسيسي للمنصة، إن الهدف هو ضمان قدرة موظفي شركات الذكاء الاصطناعي على التحدث عن الأضرار المحتملة دون خوف من الانتقام، بصرف النظر عن موقعهم.
لماذا تهم الجغرافيا
تتفاوت حمايات المُبلِّغين تفاوتاً هائلاً بين الدول. في الولايات المتحدة، توفر القوانين الفيدرالية وقوانين الولايات بعض الحماية للموظفين الذين يُبلِّغون عن المخالفات، رغم أن فعاليتها ونطاقها موضع نقاش مستمر. في الاتحاد الأوروبي، توفر توجيهية المُبلِّغين المعتمدة عام 2019 مستوى أساسياً من الحماية عبر الدول الأعضاء، وإن كان التطبيق قد جاء متفاوتاً.
لكن تطوير الذكاء الاصطناعي نشاط عالمي. تُشغِّل مختبرات الذكاء الاصطناعي الكبرى مكاتب بحثية وتستقطب الكفاءات في عشرات الدول، كثير منها يفتقر إلى قوانين حماية المُبلِّغين أو تملك قوانين محدودة للغاية. قد لا يجد باحث السلامة في سنغافورة أو الهند أو الإمارات العربية المتحدة الذي يكتشف ممارسات مثيرة للقلق لدى صاحب عمله أي مسار قانوني للإبلاغ عن تلك المخاوف دون المخاطرة بمسيرته المهنية أو ما هو أسوأ.
صُمِّمت Psst لسد هذا الفراغ من خلال تقديم حل تقني لمشكلة حوكمة. من خلال تقديم قنوات إبلاغ مشفرة ومجهولة الهوية يمكن الوصول إليها من أي دولة، تسعى المنصة إلى إنشاء شبكة أمان تعمل باستقلالية عن أي إطار قانوني وطني. يمكن توجيه التقارير المقدمة عبر المنصة إلى الجهات التنظيمية المناسبة أو الباحثين الأكاديميين أو المنظمات ذات المصلحة العامة وفقاً لطبيعة المخاوف وخطورتها.
موجة كشوفات سلامة الذكاء الاصطناعي
توقيت ظهور Psst بالغ الدلالة. شهد العام الماضي حجماً غير مسبوق من الكشوفات العلنية من قِبَل موظفين حاليين وسابقين في شركات الذكاء الاصطناعي الرائدة. استقطب مغادرة مرينانك شارما لـAnthropic وتصريحاته العلنية اللاحقة حول ممارسات السلامة اهتماماً واسعاً، فضلاً عن عدة موظفين سابقين في OpenAI الذين تساءلوا عما إذا كانت الضغوط التجارية للشركة تُقوِّض التزاماتها بالسلامة.
عادةً ما تصدر هذه الكشوفات عن أفراد يتمتعون بالأمن المالي والوضع القانوني للإقامة والسمعة المهنية اللازمة لتحمل التكاليف الشخصية للتحدث علناً. الغالبية العظمى من عمال الذكاء الاصطناعي الذين تساورهم مخاوف مماثلة يفتقرون إلى هذه الحمايات ويظلون صامتين. أطروحة Psst هي أن المخاوف المُكشَفة لا تمثل سوى قمة جبل الجليد، وأن آلية إبلاغ آمنة يمكنها الكشف عن صورة أوسع بكثير لمشكلات السلامة عبر الصناعة.
تحدي التحقق
أحد التحديات الجوهرية التي تواجه أي منصة للمُبلِّغين هو التحقق. يصعب التحقق من التقارير المجهولة الهوية، رغم أنها تحمي المُبلِّغ، ويسهل رفضها. يمكن للشركات المتهمة بإخفاقات في السلامة أن تجادل بأن الادعاءات المجهولة تفتقر إلى المصداقية، فيما يُصعِّب غياب مُدَّعٍ مُعرَّف قيام الجهات التنظيمية أو الصحفيين بالتحقيق.
تحاول Psst معالجة ذلك ببناء علاقات مع وسطاء موثوقين يمكنهم تقييم مصداقية التقارير دون الكشف عن هوية المُبلِّغ. تشجع المنصة أيضاً العمال على تقديم وثائق —رسائل إلكترونية داخلية، ونتائج اختبارات، ومحاضر اجتماعات، ووثائق السياسات— يمكنها تأييد مخاوفهم باستقلالية عن شهادتهم الشخصية.
استجابة الصناعة والجهات التنظيمية
جاء رد فعل شركات الذكاء الاصطناعي على حركة المُبلِّغين المتنامية متبايناً. التزمت بعض الشركات علناً بحماية الموظفين الذين يطرحون مخاوف السلامة عبر القنوات الداخلية، فيما استخدمت شركات أخرى اتفاقيات عدم الإفصاح وأدوات قانونية أخرى يرى المنتقدون أنها تُخمِد المعارضة الداخلية.
تراقب الجهات التنظيمية عن كثب. يتضمن قانون الذكاء الاصطناعي الأوروبي أحكاماً تتعلق بالشفافية والمساءلة يمكن أن تُفضي إلى قنوات رسمية للإبلاغ عن السلامة. في الولايات المتحدة، تناولت جلسات الاستماع في الكونغرس حول سلامة الذكاء الاصطناعي الحاجة إلى حمايات للمُبلِّغين خاصة بصناعة الذكاء الاصطناعي، رغم أنه لم يُسَنَّ أي تشريع شامل بعد.
ماذا يعني هذا لتطوير الذكاء الاصطناعي
يعكس ظهور بنية تحتية مخصصة للإبلاغ عن المخالفات في الذكاء الاصطناعي نضجاً في نقاش سلامة الذكاء الاصطناعي، انتقالاً من المناقشات الفلسفية المجردة إلى أسئلة الحوكمة العملية. مع ازدياد قوة أنظمة الذكاء الاصطناعي وتعمق اندماجها في البنية التحتية الحيوية والرعاية الصحية والمال والتطبيقات الدفاعية، تتعاظم تداعيات ممارسات السلامة غير الكافية.
تمثل Psst والمبادرات المماثلة إقراراً بأن حوكمة الذكاء الاصطناعي الفعّالة لا يمكن أن تعتمد فقط على الشركات لمراقبة نفسها أو على الحكومات للتنظيم من الخارج. يستلزم ذلك آليات تُمكِّن الأشخاص الأقرب إلى التكنولوجيا —الباحثون والمهندسون الذين يبنون هذه الأنظمة— من إطلاق صافرة الإنذار حين يرون مشكلات، دون تدمير مسيرتهم المهنية في هذه العملية.
يبقى مدى قدرة هذه المنصات على التأثير بصورة ملموسة في سلوك الصناعة رهن المستقبل. لكن في عصر يتجاوز فيه تطوير الذكاء الاصطناعي باستمرار وتيرة تنظيمه، قد تؤدي منصات المُبلِّغين دوراً محورياً كأنظمة إنذار مبكر، تكشف المخاوف التي قد تظل طيّ الكتمان حتى تتجلى كأضرار واقعية.
يستند هذا المقال إلى تقارير Rest of World. اقرأ المقال الأصلي.

