مهلت جمعه و جنگ سرد بر سر اخلاق AI

Anthropic، شرکتی در زمینه ایمنی AI که به خانواده Claude مدل‌های زبانی مربوط است، با مواجهه‌ای غیرعادی با وزارت دفاع ایالات متحده مواجه است. براساس گزارش‌ها، Pentagon تقاضا کرده است که Anthropic محدودیت‌های خود را در برنامه‌های نظامی فناوری AI خود کاهش دهد — به خصوص منع استفاده در سیستم‌های سلاح‌های خودمختار و نظارت انبوه. Anthropic نپذیرفته است و وزارت دفاع با تهدید به استفاده از قانون تولید دفاع پاسخ داده است، قانونی از دوران جنگ سرد که دولت را برای اجبار شرکت‌های خصوصی به اولویت دادن به تولید دفاع ملی مختار می‌کند.

شرکت تا جمعه فرصت داده شده است تا تمکین کند. اگر Anthropic بر سر اصرار خود بماند، Pentagon می‌تواند بطور قانونی شرکت را مجبور کند تا دسترسی به توانایی‌های AI خود را برای اهداف نظامی فراهم کند، که یک مواجهه قانونی و اخلاقی را برپا می‌کند که سابقه‌ای واضح در صنعت AI ندارد.

آنچه Anthropic محدود کرده است

از زمان تأسیس خود، Anthropic یک سیاست استفاده قابل قبول را نگه می‌دارد که به طور صریح استفاده از مدل‌های AI خود برای سلاح‌های خودمختار، نظارت انبوه و سایر برنامه‌هایی که شرکت با ماموریت خود برای توسعه ایمن AI ناسازگار می‌داند را منع می‌کند. این محدودیت‌ها در صنعت AI غیرمعمول نیستند — اکثر شرکت‌های بزرگ AI سیاست‌های مشابهی دارند — اما Anthropic به طور خاصی درباره تعهد خود به ایمنی AI به عنوان یک اصل سازمانی اساسی سخن گفته است.

این شرکت توسط محققان سابق OpenAI Dario و Daniela Amodei تأسیس شد، تا حدی به دلیل نگرانی‌های مربوط به سرعت و حکمرانی توسعه AI. هویت برند آن اطراف توسعه پاسخگو AI بنا شده است، و تحقیقات آن در زمینه تراز‌کردن و تفسیرپذیری AI آن را به عنوان رهبری در رویکرد امنیت‌اول به هوش مصنوعی موضع‌بندی کرده است. کناره‌گیری از محدودیت‌های نظامی داستان بنیادی شرکت را تضعیف می‌کند.

تهدید قانون تولید دفاع

قانون تولید دفاع، که سال 1950 در جنگ کره امضا شد، به رئیس جمهور اختیار گسترده‌ای می‌دهد تا صنعت خصوصی را هدایت کند به اولویت دادن به قرارداد‌ها و سفارش‌هایی که برای دفاع ملی ضروری محسوب می‌شوند. این قانون از زمان‌های مختلفی برای اهداف متعدد به کار گرفته شده است — اخیراً در جریان بیماری کووید-19 برای اجبار تولید تجهیزات پزشکی — اما استفاده از آن برای اجبار شرکتی AI به ارائه فناوری خود برای کاربردهای نظامی نشان‌دهنده کاربرد بی‌سابقه‌ای از قانون است.

متخصصان حقوقی در باره اینکه آیا چنین به کار گیری‌ای از بررسی قضایی جان سالم بدر برده می‌تواند بر سر آن اختلاف نظر دارند. DPA برای تولید کالاهای فیزیکی طراحی شد — فولاد، مهمات، تجهیزات پزشکی — نه برای اجبار شرکتی نرم‌افزاری به تغییر شرایط خدمات خود. سؤال اینکه آیا دسترسی به مدل‌های AI یک «محصول» تشکیل می‌دهد که می‌تواند تحت قانون توقیف شود، سؤالات حقوقی نویی را مطرح می‌کند که دادگاه‌ها هنوز به آن نپرداخته‌اند.

  • Pentagon تقاضا می‌کند Anthropic محدودیت‌های AI را در سلاح‌های خودمختار و نظارت حذف کند
  • Anthropic نپذیرفته است، استناد کردن به تعهد بنیادی خود به اصول ایمنی AI
  • وزارت دفاع تهدید می‌کند تا قانون تولید دفاع را تا جمعه به کار گیرد
  • متخصصان حقوقی این سؤال را مطرح می‌کنند که آیا DPA می‌تواند شرکتی نرم‌افزاری را برای تغییر سیاست‌های خود اجبار کند
  • این تعارض می‌تواند سابقه‌ای برای اختیارات دولتی بر روی شرکت‌های AI ایجاد کند

پیامدهای صنعتی

مواجهه بین Anthropic و Pentagon موج‌های شوکی را در صنعتی از AI که روابط پیچیده‌تری با نهادهای امنیت ملی ایجاد می‌کند، پخش می‌کند. Google، Microsoft، Amazon و OpenAI همگی قراردادهای دفاعی قابل توجهی دارند، و هر کدام با فشار درونی و بیرونی درباره کاربردهای نظامی فناوری خود روبرو شده‌اند. Google در سال 2018 به طور معروفی از Project Maven، برنامه Pentagon AI، پس از اعتراضات کارمندان خارج شد، اگرچه شرکت از آن زمان کار دفاعی خود را گسترش داده است.

اگر قانون تولید دفاع با موفقیت علیه Anthropic استفاده شود، سابقه‌ای را ایجاد می‌کند که هر شرکتی AI که در ایالات متحده فعالیت می‌کند می‌تواند برای ارائه فناوری خود برای اهداف نظامی اجبار شود، صرف‌نظر از دستورالعمل‌های اخلاقی خود. این احتمال می‌تواند تحقیقات ایمنی AI را خنثی کند، شرکت‌های متمرکز بر ایمنی را به انتقال خارج از اختیار ایالات متحده سوق دهد، یا یک صنعت دوتایی ایجاد کند که در آن شرکت‌ها باید بین قراردادهای دولتی و تعهدات ایمنی انتخاب کنند.

برعکس، اگر Anthropic با موفقیت مقاومت کند — چه از طریق چالش قانونی یا مذاکره سیاسی — می‌تواند اصلی را تقویت کند که شرکت‌های AI حق دارند محدودیت‌های اخلاقی را در زمینه نحوه استفاده از فناوری خود تعیین کنند، حتی زمانی که مشتری دولت ایالات متحده است.

تنش وسیع‌تر

این تعارض تنش بنیادی‌ای را منعکس می‌کند که از زمانی که مدل‌های زبانی بزرگ و سایر سیستم‌های پیشرفته AI شروع به نمایش توانایی‌هایی با کاربردهای نظامی واضح کردند، رشد کرده است. دولت ایالات متحده تسلط بر AI را برای امنیت ملی ضروری می‌داند، به خصوص در رقابت با چین، که منابع را به کاربردهای نظامی AI با محدودیت‌های اخلاقی کمتر ریخت می‌کند. از نقطه نظر Pentagon، اجازه دادن به شرکتی پیشرو در AI که از کاربردهای دفاعی خود را دور نگه دارد یک لوکس است که کشور نمی‌تواند تحمل کند.

از دیدگاه Anthropic، محدودیت‌ها دقیقاً به این دلیل وجود دارند که شرکت بر این باور است که کاربرد نظامی نامحدود سیستم‌های قدرتمند AI ریسک‌های فاجعه‌بار ایجاد می‌کند — ریسک‌هایی که به سادگی به دلیل اینکه کاربر لباس نظامی آمریکایی می‌پوشد حذف نمی‌شوند. موضع شرکت این است که برخی از کاربردهای AI برای فعال‌سازی بسیار خطرناک‌اند، صرف‌نظر از اینکه چه کسی درخواست می‌کند.

نحوه حل این تعارض احتمالاً روابط بین صنعت AI و دولت ایالات متحده را برای سال‌های آینده شکل خواهد داد. این یک آزمایش برای اینکه آیا تعهدات ایمنی AI می‌توانند در مقابل کشش گرانشی الزامات امنیت ملی مقاومت کنند — و اینکه آیا دولت از قدرتمندترین ابزارهای قانونی خود برای اطمینان از اینکه نمی‌توانند استفاده خواهد کرد.

این مقاله بر اساس گزارش The Decoder است. مقاله اصلی را بخوانید.