مهلت جمعه و جنگ سرد بر سر اخلاق AI
Anthropic، شرکتی در زمینه ایمنی AI که به خانواده Claude مدلهای زبانی مربوط است، با مواجههای غیرعادی با وزارت دفاع ایالات متحده مواجه است. براساس گزارشها، Pentagon تقاضا کرده است که Anthropic محدودیتهای خود را در برنامههای نظامی فناوری AI خود کاهش دهد — به خصوص منع استفاده در سیستمهای سلاحهای خودمختار و نظارت انبوه. Anthropic نپذیرفته است و وزارت دفاع با تهدید به استفاده از قانون تولید دفاع پاسخ داده است، قانونی از دوران جنگ سرد که دولت را برای اجبار شرکتهای خصوصی به اولویت دادن به تولید دفاع ملی مختار میکند.
شرکت تا جمعه فرصت داده شده است تا تمکین کند. اگر Anthropic بر سر اصرار خود بماند، Pentagon میتواند بطور قانونی شرکت را مجبور کند تا دسترسی به تواناییهای AI خود را برای اهداف نظامی فراهم کند، که یک مواجهه قانونی و اخلاقی را برپا میکند که سابقهای واضح در صنعت AI ندارد.
آنچه Anthropic محدود کرده است
از زمان تأسیس خود، Anthropic یک سیاست استفاده قابل قبول را نگه میدارد که به طور صریح استفاده از مدلهای AI خود برای سلاحهای خودمختار، نظارت انبوه و سایر برنامههایی که شرکت با ماموریت خود برای توسعه ایمن AI ناسازگار میداند را منع میکند. این محدودیتها در صنعت AI غیرمعمول نیستند — اکثر شرکتهای بزرگ AI سیاستهای مشابهی دارند — اما Anthropic به طور خاصی درباره تعهد خود به ایمنی AI به عنوان یک اصل سازمانی اساسی سخن گفته است.
این شرکت توسط محققان سابق OpenAI Dario و Daniela Amodei تأسیس شد، تا حدی به دلیل نگرانیهای مربوط به سرعت و حکمرانی توسعه AI. هویت برند آن اطراف توسعه پاسخگو AI بنا شده است، و تحقیقات آن در زمینه ترازکردن و تفسیرپذیری AI آن را به عنوان رهبری در رویکرد امنیتاول به هوش مصنوعی موضعبندی کرده است. کنارهگیری از محدودیتهای نظامی داستان بنیادی شرکت را تضعیف میکند.
تهدید قانون تولید دفاع
قانون تولید دفاع، که سال 1950 در جنگ کره امضا شد، به رئیس جمهور اختیار گستردهای میدهد تا صنعت خصوصی را هدایت کند به اولویت دادن به قراردادها و سفارشهایی که برای دفاع ملی ضروری محسوب میشوند. این قانون از زمانهای مختلفی برای اهداف متعدد به کار گرفته شده است — اخیراً در جریان بیماری کووید-19 برای اجبار تولید تجهیزات پزشکی — اما استفاده از آن برای اجبار شرکتی AI به ارائه فناوری خود برای کاربردهای نظامی نشاندهنده کاربرد بیسابقهای از قانون است.
متخصصان حقوقی در باره اینکه آیا چنین به کار گیریای از بررسی قضایی جان سالم بدر برده میتواند بر سر آن اختلاف نظر دارند. DPA برای تولید کالاهای فیزیکی طراحی شد — فولاد، مهمات، تجهیزات پزشکی — نه برای اجبار شرکتی نرمافزاری به تغییر شرایط خدمات خود. سؤال اینکه آیا دسترسی به مدلهای AI یک «محصول» تشکیل میدهد که میتواند تحت قانون توقیف شود، سؤالات حقوقی نویی را مطرح میکند که دادگاهها هنوز به آن نپرداختهاند.
- Pentagon تقاضا میکند Anthropic محدودیتهای AI را در سلاحهای خودمختار و نظارت حذف کند
- Anthropic نپذیرفته است، استناد کردن به تعهد بنیادی خود به اصول ایمنی AI
- وزارت دفاع تهدید میکند تا قانون تولید دفاع را تا جمعه به کار گیرد
- متخصصان حقوقی این سؤال را مطرح میکنند که آیا DPA میتواند شرکتی نرمافزاری را برای تغییر سیاستهای خود اجبار کند
- این تعارض میتواند سابقهای برای اختیارات دولتی بر روی شرکتهای AI ایجاد کند
پیامدهای صنعتی
مواجهه بین Anthropic و Pentagon موجهای شوکی را در صنعتی از AI که روابط پیچیدهتری با نهادهای امنیت ملی ایجاد میکند، پخش میکند. Google، Microsoft، Amazon و OpenAI همگی قراردادهای دفاعی قابل توجهی دارند، و هر کدام با فشار درونی و بیرونی درباره کاربردهای نظامی فناوری خود روبرو شدهاند. Google در سال 2018 به طور معروفی از Project Maven، برنامه Pentagon AI، پس از اعتراضات کارمندان خارج شد، اگرچه شرکت از آن زمان کار دفاعی خود را گسترش داده است.
اگر قانون تولید دفاع با موفقیت علیه Anthropic استفاده شود، سابقهای را ایجاد میکند که هر شرکتی AI که در ایالات متحده فعالیت میکند میتواند برای ارائه فناوری خود برای اهداف نظامی اجبار شود، صرفنظر از دستورالعملهای اخلاقی خود. این احتمال میتواند تحقیقات ایمنی AI را خنثی کند، شرکتهای متمرکز بر ایمنی را به انتقال خارج از اختیار ایالات متحده سوق دهد، یا یک صنعت دوتایی ایجاد کند که در آن شرکتها باید بین قراردادهای دولتی و تعهدات ایمنی انتخاب کنند.
برعکس، اگر Anthropic با موفقیت مقاومت کند — چه از طریق چالش قانونی یا مذاکره سیاسی — میتواند اصلی را تقویت کند که شرکتهای AI حق دارند محدودیتهای اخلاقی را در زمینه نحوه استفاده از فناوری خود تعیین کنند، حتی زمانی که مشتری دولت ایالات متحده است.
تنش وسیعتر
این تعارض تنش بنیادیای را منعکس میکند که از زمانی که مدلهای زبانی بزرگ و سایر سیستمهای پیشرفته AI شروع به نمایش تواناییهایی با کاربردهای نظامی واضح کردند، رشد کرده است. دولت ایالات متحده تسلط بر AI را برای امنیت ملی ضروری میداند، به خصوص در رقابت با چین، که منابع را به کاربردهای نظامی AI با محدودیتهای اخلاقی کمتر ریخت میکند. از نقطه نظر Pentagon، اجازه دادن به شرکتی پیشرو در AI که از کاربردهای دفاعی خود را دور نگه دارد یک لوکس است که کشور نمیتواند تحمل کند.
از دیدگاه Anthropic، محدودیتها دقیقاً به این دلیل وجود دارند که شرکت بر این باور است که کاربرد نظامی نامحدود سیستمهای قدرتمند AI ریسکهای فاجعهبار ایجاد میکند — ریسکهایی که به سادگی به دلیل اینکه کاربر لباس نظامی آمریکایی میپوشد حذف نمیشوند. موضع شرکت این است که برخی از کاربردهای AI برای فعالسازی بسیار خطرناکاند، صرفنظر از اینکه چه کسی درخواست میکند.
نحوه حل این تعارض احتمالاً روابط بین صنعت AI و دولت ایالات متحده را برای سالهای آینده شکل خواهد داد. این یک آزمایش برای اینکه آیا تعهدات ایمنی AI میتوانند در مقابل کشش گرانشی الزامات امنیت ملی مقاومت کنند — و اینکه آیا دولت از قدرتمندترین ابزارهای قانونی خود برای اطمینان از اینکه نمیتوانند استفاده خواهد کرد.
این مقاله بر اساس گزارش The Decoder است. مقاله اصلی را بخوانید.

