محادثة عالية المخاطر
يستعد وزير الدفاع الأمريكي بيت Hegseth للقاء مع الرئيس التنفيذي لـ Anthropic، Dario Amodei، في اجتماع يسلط الضوء على تصعيد النقاش حول كيفية استخدام الذكاء الاصطناعي من قبل الجيش الأمريكي. يأتي اللقاء حيث تسارع وزارة الدفاع جهودها لنشر الذكاء الاصطناعي عبر مجموعة من التطبيقات العسكرية، من تحليل الاستخبارات إلى اللوجستيات إلى الأنظمة الأسلحة المستقلة.
تموضعت شركة Anthropic، شركة سلامة الذكاء الاصطناعي خلف عائلة نماذج Claude، كصوت حذر في صناعة الذكاء الاصطناعي، مع التركيز على أهمية أبحاث السلامة والنشر المسؤول. يعكس استعداد الشركة للتفاعل مباشرة مع وزارة الدفاع تطوراً ملحوظاً في نهجها تجاه الشراكات الحكومية، وقد يشكل اللقاء مع Hegseth شروط هذا التعاون لسنوات قادمة.
طموحات وزارة الدفاع في مجال الذكاء الاصطناعي
كانت وزارة الدفاع تستثمر بكثافة في الذكاء الاصطناعي لعدة سنوات، لكن الوتيرة تسارعت بشكل حاد تحت الإدارة الحالية. كُلفت مكتب رئيس الشؤون الرقمية والذكاء الاصطناعي في وزارة الدفاع (CDAO) بتوسيع اعتماد الذكاء الاصطناعي عبر جميع الخدمات العسكرية، وقد منحت الوزارة عقوداً بقيمة مليارات الدولارات لشركات التكنولوجيا للعمل المتعلق بالذكاء الاصطناعي.
تشمل المجالات الرئيسية للتركيز الصيانة التنبؤية لمعدات الجيش، والتحليل المؤتمت للاستخبارات من صور الأقمار الصناعية وبيانات الإشارات، وأدوات دعم القرار لقادة الحقول، والأهم من ذلك - الأنظمة الأسلحة المستقلة التي يمكنها تحديد الأهداف والتعامل معها بدرجات متفاوتة من الإشراف البشري.
كان Hegseth صريحاً حول وجهة نظره بأن الولايات المتحدة يجب أن تتحرك بسرعة أكبر لنشر الذكاء الاصطناعي في التطبيقات العسكرية أو تخاطر بالتخلف عن الصين، التي جعلت الحروب المدعومة بالذكاء الاصطناعي عماداً مركزياً في استراتيجية تحديثها العسكري. يعكس موقفه قلقاً أوسع في المؤسسة الدفاعية بأن الحذر المفرط بشأن سلامة الذكاء الاصطناعي قد يخلق فجوة قدرات خطيرة.
العمل المتوازن لـ Anthropic
بالنسبة لـ Anthropic، يمثل اللقاء مع Hegseth عملاً متوازناً حساساً. تأسست الشركة في عام 2021 من قبل باحثين سابقين في OpenAI تركوا جزئياً لأسباب تتعلق بقلقهم بشأن وتيرة وسلامة تطوير الذكاء الاصطناعي. تم بناء هويتها الشركاتية حول مفهوم الذكاء الاصطناعي المسؤول، وقد نشرت أبحاثاً واسعة عن محاذاة الذكاء الاصطناعي ومعايير السلامة والمخاطر المرتبطة بنشر أنظمة الذكاء الاصطناعي القوية بدون ضمانات كافية.
في نفس الوقت، Anthropic هي شركة تجارية جمعت أكثر من 10 مليارات دولار في التمويل وتواجه ضغوطاً لتوليد الإيرادات. تمثل العقود الحكومية فرصة عمل كبيرة، وتعتبر وكالات الدفاع والاستخبارات من بين الزبائن الأكثر حماساً والأفضل تمويلاً لقدرات الذكاء الاصطناعي المتقدمة.
اتخذت الشركة بالفعل خطوات نحو العمل الحكومي. نماذج Anthropic متاحة عبر Amazon Web Services' GovCloud، والشركة تفاعلت مع وكالات حكومية مختلفة حول سلامة وتقييم الذكاء الاصطناعي. ومع ذلك، كانت أكثر حذراً من بعض المنافسين بشأن الشراكات العسكرية الصريحة، وسياسة الاستخدام المقبول لديها تضع قيوداً على تطبيقات معينة لتكنولوجيتها.
الانقسام الأوسع في الصناعة
يعكس اجتماع Hegseth-Amodei انقساماً أوسع في صناعة التكنولوجيا حول الذكاء الاصطناعي العسكري. بنت بعض الشركات، مثل Palantir و Anduril و Shield AI، أعمالها حول تطبيقات الدفاع وتبنت وزارة الدفاع كعميل أساسي. أما الآخرون، بما في ذلك بعض مختبرات الذكاء الاصطناعي الكبرى، فقد كانوا أكثر تذبذباً، موازناً بين الفرص التجارية والمخاطر المتعلقة بالسمعة من الارتباط بالتطبيقات العسكرية.
انسحبت Google بشهرة من Project Maven، وهو برنامج وزارة الدفاع لتطبيق الذكاء الاصطناعي على تحليل صور الطائرات بدون طيار، بعد احتجاجات الموظفين في عام 2018. عكست الشركة اتجاهها لاحقاً وفازت منذ ذلك الحين بعقود دفاع كبيرة. حافظت Microsoft على موقف متسق من الانخراط مع الجيش، محتجة بأن الدول الديمقراطية يجب أن تملك الوصول إلى أفضل التكنولوجيا المتاحة.
- تسارع وزارة الدفاع اعتماد الذكاء الاصطناعي عبر الاستخبارات واللوجستيات والأسلحة المستقلة
- يجادل مسؤولو الدفاع بأن الولايات المتحدة يجب أن تتحرك بسرعة أكبر لمواكبة برامج الذكاء الاصطناعي العسكرية الصينية
- يقلق دعاة سلامة الذكاء الاصطناعي من نشر الأنظمة القوية في سياقات عسكرية عالية المخاطر بدون ضمانات كافية
- وسعت عدة شركات ذكاء اصطناعي كبرى عملها الحكومي والدفاعي رغم التردد الأولي
ما هو على المحك
النقاش حول الذكاء الاصطناعي العسكري ليس مجرد نقاش أكاديمي. يمكن للقرارات التي سيتم اتخاذها في الأشهر والسنوات القادمة بشأن كيفية دمج أنظمة الذكاء الاصطناعي في العمليات العسكرية أن يكون لها عواقب عميقة على طبيعة الحرب وخطر التصعيد وحماية المدنيين في مناطق الصراع.
يجادل أنصار النشر السريع بأن الذكاء الاصطناعي يمكن أن يجعل العمليات العسكرية أكثر دقة ويقلل الخسائر في الأرواح بين المدنيين من خلال تحسين دقة الاستهداف والوعي بالموقف. يرد النقاد بأن التكنولوجيا ليست موثوقة بعد لاتخاذ قرارات تتعلق بالحياة والموت، وأن نشر أنظمة الأسلحة ذات الذكاء الاصطناعي يمكن أن يخفض عتبة استخدام القوة بجعل العمل العسكري يبدو أقل تكلفة.
من غير المرجح أن ينهي اللقاء بين Hegseth و Amodei هذه التوترات، لكن يمكنه المساعدة في تحديد معاملات تفاعل Anthropic مع المؤسسة الدفاعية. إذا استطاعت إحدى أكثر شركات الذكاء الاصطناعي وعياً بالسلامة إيجاد إطار عمل قابل للتطبيق للتعاون العسكري، فيمكن أن يحدد نموذجاً لآخرين ليتابعوه. إذا انهارت المحادثات بسبب خلافات لا يمكن التوفيق بينها بشأن معايير السلامة، فقد يعمق الانقسام بين صناعة التكنولوجيا ووزارة الدفاع في وقت يقول فيه كلا الطرفين أن التعاون ضروري.
لحظة تاريخية
بالنسبة لصناعة الذكاء الاصطناعي ككل، يمثل التكامل المتنامي للذكاء الاصطناعي في الأنظمة العسكرية لحظة تاريخية. التكنولوجيا التي تم تحضينها في مختبرات البحث الأكاديمية وتم تسويقها من خلال chatbots المستهلك يطلب الآن منها تنفيذ بعض المهام الأكثر عواقب يمكن تخيلها. كيفية إدارة هذا الانتقال - ومن قبل من - سيشكل ليس فقط مستقبل الحرب، بل مستقبل صناعة الذكاء الاصطناعي نفسها.
تم إعداد هذا المقال بناءً على التقارير من C4ISRNET. اقرأ المقال الأصلي.




