موعد نهائي يوم الجمعة وصراع على أخلاقيات الذكاء الاصطناعي
Anthropic، شركة سلامة الذكاء الاصطناعي التي تقف وراء عائلة Claude من نماذج اللغة، تواجه مواجهة استثنائية مع وزارة الدفاع الأمريكية. وفقًا للتقارير، طلب البنتاغون من Anthropic تخفيف قيودها على التطبيقات العسكرية لتكنولوجيا الذكاء الاصطناعي - وتحديداً حظرها على الاستخدام في أنظمة الأسلحة المستقلة والمراقبة الجماعية. رفضت Anthropic، وردت وزارة الدفاع بتهديد بتطبيق قانون الإنتاج الدفاعي، وهو قانون من حقبة الحرب الباردة يسمح للحكومة بإجبار الشركات الخاصة على إعطاء الأولوية لإنتاج الدفاع الوطني.
تم إعطاء الشركة مهلة حتى يوم الجمعة للامتثال. إذا حافظت Anthropic على رفضها، فيمكن للبنتاغون إجبار الشركة قانونيًا على توفير إمكانية الوصول إلى قدرات الذكاء الاصطناعي لديها لأغراض عسكرية، مما يؤدي إلى مواجهة قانونية وأخلاقية لا سابقة واضحة لها في صناعة الذكاء الاصطناعي.
ما الذي قيدته Anthropic
منذ تأسيسها، حافظت Anthropic على سياسة استخدام مقبولة تحظر صراحة استخدام نماذج الذكاء الاصطناعي لديها للأسلحة المستقلة والمراقبة الجماعية والتطبيقات الأخرى التي تعتبرها الشركة غير متوافقة مع مهمتها في تطوير الذكاء الاصطناعي بشكل آمن. هذه القيود ليست غير عادية في صناعة الذكاء الاصطناعي - معظم شركات الذكاء الاصطناعي الرئيسية لديها سياسات مماثلة - لكن Anthropic كانت صريحة بشكل خاص حول التزامها بسلامة الذكاء الاصطناعي كمبدأ تنظيمي أساسي.
تم تأسيس الشركة من قبل الباحثين السابقين في OpenAI، Dario و Daniela Amodei، جزئيًا بسبب المخاوف بشأن وتيرة وحوكمة تطوير الذكاء الاصطناعي. هويتها العلامية مبنية على تطوير الذكاء الاصطناعي المسؤول، وأبحاثها في محاذاة الذكاء الاصطناعي والقابلية للتفسير وضعتها كرائدة في نهج الأمان أولاً للذكاء الاصطناعي. الاستسلام لقيود عسكرية من شأنه أن يقوض السرد الأساسي للشركة.
تهديد قانون الإنتاج الدفاعي
قانون الإنتاج الدفاعي، الموقع عام 1950 أثناء الحرب الكورية، يعطي الرئيس سلطة واسعة لتوجيه الصناعة الخاصة لإعطاء الأولوية للعقود والطلبات التي تعتبر ضرورية للدفاع الوطني. تم تطبيقه بشكل دوري لأغراض مختلفة - في الآونة الأخيرة أثناء جائحة COVID-19 لإجبار الإنتاج من الإمدادات الطبية - لكن استخدامه لإجبار شركة الذكاء الاصطناعي على توفير تكنولوجيتها للتطبيقات العسكرية سيمثل تطبيقًا غير مسبوق للقانون.
ينقسم الخبراء القانونيون حول ما إذا كان هذا التطبيق سيصمد أمام المراجعة القضائية. تم تصميم DPA لتصنيع السلع المادية - الفولاذ والذخيرة والمعدات الطبية - وليس لإجبار شركة برمجيات على تغيير شروط الخدمة الخاصة بها. السؤال حول ما إذا كان الوصول إلى نموذج الذكاء الاصطناعي يشكل منتجًا يمكن الاستيلاء عليه بموجب القانون يثير أسئلة قانونية جديدة لم تعالجها المحاكم بعد.
- البنتاغون يطلب من Anthropic إزالة القيود على استخدام الذكاء الاصطناعي في الأسلحة المستقلة والمراقبة
- رفضت Anthropic، مستشهدة بالتزامها الأساسي بمبادئ سلامة الذكاء الاصطناعي
- وزارة الدفاع تهدد بتطبيق قانون الإنتاج الدفاعي بحلول يوم الجمعة
- يشكك الخبراء القانونيون حول ما إذا كان DPA يمكن أن يجبر شركة برمجيات على تغيير سياساتها
- قد يضع الجمود سابقة لسلطة الحكومة على شركات الذكاء الاصطناعي
آثار الصناعة
تبعث المواجهة بين Anthropic والبنتاغون صدمات عبر صناعة الذكاء الاصطناعي التي كانت تتنقل عبر علاقة معقدة بشكل متزايد مع وكالات الأمن القومي. تمتلك Google و Microsoft و Amazon و OpenAI جميعها عقود دفاع كبيرة، وواجهت كل منها ضغوطًا داخلية وخارجية حول التطبيقات العسكرية لتكنولوجيتها. انسحبت Google بشكل مشهور من Project Maven، وهو برنامج الذكاء الاصطناعي التابع للبنتاغون، بعد احتجاجات الموظفين في عام 2018، على الرغم من أن الشركة وسعت عملها الدفاعي منذ ذلك الحين.
إذا تم استخدام قانون الإنتاج الدفاعي بنجاح ضد Anthropic، فإنه سيضع سابقة بأن أي شركة ذكاء اصطناعي تعمل في الولايات المتحدة يمكن إجبارها على توفير تكنولوجيتها لأغراض عسكرية بغض النظر عن إرشاداتها الأخلاقية الخاصة. يمكن لهذا الاحتمال أن يثبط بحوث سلامة الذكاء الاصطناعي، ويدفع الشركات التي تركز على السلامة إلى إعادة تمركز خارج الولاية القضائية الأمريكية، أو ينشئ صناعة منقسمة حيث يجب على الشركات الاختيار بين عقود حكومية والتزامات سلامة.
وعلى العكس من ذلك، إذا قاومت Anthropic الأمر بنجاح - سواء من خلال تحدي قانوني أو تفاوض سياسي - فقد يعزز المبدأ القائل بأن شركات الذكاء الاصطناعي لها الحق في تحديد حدود أخلاقية لكيفية استخدام تكنولوجيتها، حتى عندما يكون العميل هو الحكومة الأمريكية.
التوتر الأوسع
يعكس الجمود توتراً أساسياً كان يتراكم منذ أن بدأت نماذج اللغة الكبيرة والأنظمة المتقدمة الأخرى للذكاء الاصطناعي في إظهار قدرات لها تطبيقات عسكرية واضحة. تعتبر الحكومة الأمريكية هيمنة الذكاء الاصطناعي ضرورية للأمن القومي، خاصة في المنافسة مع الصين، التي تصب الموارد في تطبيقات الذكاء الاصطناعي العسكرية بقيود أخلاقية أقل. من منظور البنتاغون، السماح لشركة رائدة في الذكاء الاصطناعي بالامتناع عن تطبيقات الدفاع هو رفاهية لا يمكن للأمة تحملها.
من منظور Anthropic، توجد القيود بالضبط لأن الشركة تعتقد أن التطبيق العسكري غير المقيد لأنظمة الذكاء الاصطناعي القوية يشكل مخاطر كارثية - مخاطر لا يتم القضاء عليها بكل بساطة لأن المستخدم يرتدي زيًا أمريكيًا. موقف الشركة هو أن بعض تطبيقات الذكاء الاصطناعي خطيرة جداً للتمكين، بغض النظر عن من يسأل.
كيفية حل هذا الجمود سيشكل على الأرجح العلاقة بين صناعة الذكاء الاصطناعي والحكومة الأمريكية في السنوات القادمة. إنها حالة اختبار لما إذا كانت التزامات سلامة الذكاء الاصطناعي يمكنها أن تصمد أمام القوة الجاذبة لضرورات الأمن القومي - وما إذا كانت الحكومة ستستخدم أقوى أدواتها القانونية للتأكد من أنها لا تستطيع.
يعتمد هذا المقال على تقارير The Decoder. اقرأ المقال الأصلي.

