نقاش ينتقل من النظرية إلى السياسة
تمحورت نسخة 17 أبريل من The Download الصادرة عن MIT Technology Review حول موضوع بات من الصعب على الحكومات وشركات التكنولوجيا تجنبه: أنظمة الذكاء الاصطناعي تتوغل أكثر فأكثر في قرارات ذات عواقب كبيرة، بينما قد لا تواكب اللغة العامة المتعلقة بالرقابة هذا التقدم. وقد جمعت النشرة بين مقال رأي يجادل بأن “البشر في الحلقة” في حرب الذكاء الاصطناعي قد يكونون وهمًا، وبين تقرير يفيد بأن البيت الأبيض يريد الوصول إلى نموذج Mythos الجديد من Anthropic رغم أن الشركة حجبته عن النشر العام لأسباب تتعلق بالسلامة.
وعند النظر إلى العنصرين معًا، يتضح مشهد يزداد إرباكًا. أحد النقاشين يطرح سؤالًا حول ما إذا كانت السيطرة البشرية على الذكاء الاصطناعي العسكري أكثر رمزية من كونها حقيقية. أما الآخر فيشير إلى أن الحكومات قد تضغط لاستخدام أنظمة رائدة حتى عندما تُظهر الشركات التي تبنيها قدرًا غير معتاد من الحذر. ولا يحسم أي من هذين العنصرين الجدل السياسي، لكنهما معًا يبينان مدى سرعة انتقال النقاش إلى ما بعد المبادئ المجردة.
مشكلة عبارة “البشر في الحلقة”
وفقًا للنشرة، فإن الذكاء الاصطناعي يشكل الحروب الواقعية بالفعل. وهذه الحقيقة تؤسس للحجة الواردة في مقال الرأي لوري موآز، الذي يقول إن اللغة المطمئنة عن إبقاء البشر “في الحلقة” قد تصرف الانتباه عن المشكلة الأعمق. ووفقًا لإرشادات البنتاغون، يُفترض أن توفر الرقابة البشرية المساءلة والسياق والأمان. لكن مقال الرأي يجادل بأن الخطر الحقيقي ليس فقط في أن تعمل الآلات من دون إشراف، بل في أن المشرفين البشر قد لا يفهمون ما تفعله الأنظمة التي يشرفون عليها أو “تفكر” فيه.
تكتسب هذه الانتقادات أهمية لأن “البشر في الحلقة” أصبحت عبارة سياسية افتراضية لتهدئة المخاوف بشأن الاستقلالية في الأنظمة العسكرية. توحي العبارة بالتحكم، والقابلية للعكس، والحكم الهادف. لكن إذا اقتصر دور الإنسان على مراقبة مخرجات تولدها أنظمة غامضة من حيث منطقها الداخلي، فإن مجرد وجود شخص قد يفعل أقل بكثير مما توحي به العبارة لضمان السلامة.
لا يقول طرح مقال الرأي إن البشر غير ذي صلة. بل يقول إن أشكال الرقابة الحالية قد لا تكفي عندما تكون أنظمة الذكاء الاصطناعي صعبة التفسير تحت الضغط. وهذه حجة أكثر تطلبًا من المخاوف التقليدية حول الأتمتة. فهي تقول إن التحدي السياسي ليس مجرد الإبقاء على زر بشري في نهاية السلسلة، بل تصميم ضمانات للحالات التي لا يمتلك فيها المشرف البشري رؤية واضحة لكيفية وصول النموذج إلى توصيته، أو عندما يضغط الإيقاع التشغيلي على الوقت المتاح للتدقيق.
ويقول ملخص MIT Technology Review إن العلم ربما يقدم طريقًا إلى الأمام، ويدعو إلى ضمانات جديدة حول حرب الذكاء الاصطناعي. وحتى في صيغته المختصرة، فإن هذا التركيز كاشف. فالنقاش لم يعد يتمحور فقط حول ما إذا كان ينبغي للبشر الاستمرار في المشاركة، بل أصبح يدور بصورة متزايدة حول نوع المشاركة التي تكون ذات مغزى كافٍ لاعتبارها سيطرة حقيقية.
طلب الحكومة يصطدم بقيود النموذج
أشارت النشرة أيضًا إلى تقارير تفيد بأنه، رغم التحركات السابقة ضد Anthropic، فإن البيت الأبيض يريد الوصول إلى نموذج Mythos الجديد الخاص بالشركة. وتقول المذكرة إن مسؤولي ترامب يتفاوضون بشأن النموذج، رغم أن Anthropic اعتبرته شديد الخطورة بحيث لا يناسب طرحًا عامًا. كما تذكر أن الشركة أطلقت مؤخرًا نموذجًا آخر وصفته بأنه أقل خطورة من Mythos.
تشير هذه التفاصيل إلى اتساع الفجوة بين معايير الإطلاق العام ورغبة الحكومة. فإذا كانت شركة ما تحجب نظامًا بسبب مستوى المخاطر فيه، لكن المسؤولين ما زالوا يريدون الحصول عليه، تصبح الحدود بين “شديد الخطورة على النشر العام” و“مقبول للاستخدام الحكومي” سؤال سياسة حيًا. وهذا مهم ليس فقط للشراء، بل للمساءلة. قد ترغب الحكومات في الوصول إلى نماذج أكثر قدرة تحديدًا لأنها تمنح أفضلية استراتيجية، لكن القدرة نفسها قد تزيد الغموض بشأن سوء الاستخدام أو أنماط الفشل أو التصعيد.
ولا تقدم النشرة السياق القانوني أو السياسي الكامل للخلاف بين Anthropic والبنتاغون، لكنها تضع ذلك الخلاف داخل نمط أوسع: النماذج الرائدة باتت أدوات لمصالح الدولة. وبمجرد حدوث ذلك، تتوقف الحجج حول سلامة النموذج عن كونها محصورة في الإصدارات الموجهة للمستهلكين أو أدوات الشركات، وتصبح جزءًا من صنع القرار في الأمن القومي.
ما الذي تكشفه هذه اللقطة من النشرة
- سلطت MIT Technology Review الضوء على حجة مفادها أن الرقابة البشرية في حرب الذكاء الاصطناعي قد تكون أقل معنى مما يفترضه صانعو السياسات.
- يقول مقال الرأي إن الخطر الجوهري ليس الاستقلالية من دون رقابة فحسب، بل الرقابة من دون فهم.
- كما أفادت النشرة بأن البيت الأبيض يريد نموذج Mythos من Anthropic رغم أن الشركة حجبت إصداره العام لأسباب تتعلق بالسلامة.
- وقد أطلقت Anthropic نموذجًا منفصلًا وصفته بأنه أقل خطورة من Mythos.
هناك نمط أكبر في هذه التطورات المرتبطة. فقد أمضت حوكمة الذكاء الاصطناعي سنوات في بناء مفردات مطمئنة حول التوافق، والحواجز الوقائية، والرقابة البشرية. لكن عمليات النشر الفعلية والطلب الحكومي الفعلي يختبران ما إذا كانت هذه المفاهيم قابلة للتطبيق أم مجرد بلاغة. إذا لم تتمكن سلسلة القيادة العسكرية من تفسير الأنظمة التي تستخدمها بالكامل، فقد تكون المراجعة البشرية أضعف مما تقوله العقيدة الرسمية. وإذا سعت الحكومات إلى الوصول إلى نماذج أقوى رغم حذر الشركات، فقد تصبح معايير السلامة مرهونة بهوية العميل.
ولهذا فإن هذه النسخة من The Download مهمة بوصفها أكثر من مجرد جولة إخبارية. فهي تلتقط تحولًا في التركيز. لم يعد السؤال المركزي مجرد ما إذا كان الذكاء الاصطناعي المتقدم سيُستخدم في الحرب وصنع السياسة، فهو يُستخدم بالفعل. والسؤال الأصعب هو ما إذا كانت لغة الرقابة الحالية، وأعراف الشراء، وحدود السلامة قوية بما يكفي لهذه الحقيقة. ويشير ملخص MIT Technology Review إلى أن الجواب، في الحد الأدنى، ما يزال غير محسوم.
تعتمد هذه المقالة على تغطية MIT Technology Review. اقرأ المقال الأصلي.
Originally published on technologyreview.com




