ابزاری از جنگ سرد برای عصر تکنولوژی جدید

رابطه بین وزارت دفاع ایالات متحده و یکی از شرکت‌های هوش مصنوعی پیشرو جهان به نقطه شکستی رسیده است. وزیر دفاع پیت هگسث یک انجام‌نامه واضح به Anthropic صادر کرده است: موافق شوید که استفاده نظامی بدون محدود از فناوری AI خود را تا جمعه اجازه دهید، یا با اخراج از زنجیره تامین پنتاگون روبروی شوید.

این تهدید در حین یک جلسه تنش‌زا در واشنگتن در روز سه‌شنبه مطرح شد، جایی که هگسث CEO Anthropic داریو آمودی را برای آنچه منابع توصیف کردند به عنوان بحثی متخاصم درباره امتناع شرکت از دسترسی بدون محدود نظامی به مدل‌های AI خود برای عملیات مخفی فراخواند. در میان مناسب‌ترین خواسته‌ها تدابیری برای توانایی‌های نظارت داخلی و مأموریت‌های خودمختار کشنده بدون نظارت مستقیم انسانی بود.

شاید قابل‌توجه‌ترین نکته اشاره هگسث به قانون تولید دفاعی بود، یک قانونی از دوران جنگ سرد که به رئیس‌جمهور اختیار گسترده برای اجبار صنایع داخلی به خدمت به اولویت‌های دفاع ملی می‌دهد. ابتدا برای اطمینان از این‌که کارخانه‌ها می‌توانند برای تولید زمان جنگ تغییر یابند، طراحی شده بود، این قانون هرگز برای اجبار یک شرکت هوش مصنوعی برای تسلیم فناوری خود به کار برده نشده است — این تهدید را بی‌سابقه در تاریخ سیاست فناوری آمریکایی می‌سازد.

موضع کانون ایمنی اول Anthropic تحت فشار

Anthropic برای مدت طولانی خود را در صنعت هوش مصنوعی از طریق تاکید بر تحقیقات ایمنی و استقرار مسئول‌انه متمایز کرده است. این شرکت، تأسیس‌شده توسط محققان سابق OpenAI داریو و دانیلا آمودی، برند خود را حول مفهوم هوش مصنوعی قانونی — سیستم‌های طراحی‌شده با محدودیت‌های اخلاقی درونی برای جلوگیری از سوء‌استفاده — ساخت.

این فلسفه ایمنی-اول اکنون شرکت را در مسیر برخورد با اشتهای رو به گسترش پنتاگون برای ادغام هوش مصنوعی در سراسر عملیات نظامی قرار داده است. در حالی که Anthropic با تمام قرارداد‌های دفاع مخالف نیست، خطوط محکم را حول برنامه‌های خاصی، به‌طور خاص آن‌هایی که شامل نیروی کشنده خودمختار بدون کنترل معنادار انسانی و برنامه‌های نظارت گسترده در نظر گرفتن جمعیت داخلی هستند، رسم کرده است.

موضع شرکت یک بحث گسترده‌تر در صنعت هوش مصنوعی در مورد جایی که مرز‌های اخلاقی کشیده شود را منعکس می‌کند. سایر شرکت‌های بزرگ هوش مصنوعی، از جمله OpenAI و Google، نیز با قرارداد‌های نظامی دست‌و‌پنجه نرم کرده‌اند، اگرچه بیشتر برای مذاکره از شرایط تعامل با آژانس‌های دفاع آماده بوده‌اند. خط سخت‌گیرانه‌تر Anthropic آن را در فشار تهاجمی‌تر و در حال افزایش واشنگتن برای تسلیح هوش مصنوعی یک رعدوبرق ساخته است.

قانون تولید دفاعی: یک سلاح غیرمعمول

قانون تولید دفاعی در سال 1950، در مراحل اولیه جنگ کره، امضاء شد. هدف اصلی آن سرراست بود: اطمینان حاصل کنید که صنعت آمریکایی می‌تواند به سرعت تولید را برای پشتیبانی از نیاز‌های نظامی تغییر دهد. در طول دهه‌ها، این برای همه‌چیز از تولید نیمه‌رسانا تا زنجیره‌های تامین پزشکی پاندمی به کار برده شده است.

اما اعمال DPA برای اجبار یک شرکت هوش مصنوعی برای دسترسی به مدل‌های خود نمایش یک نوع بسیار متفاوت از مداخله است. برخلاف کالای فیزیکی، مدل‌های هوش مصنوعی دارایی فکری هستند که توانایی‌ها و خطرات آن عمیقاً در هم‌تنیده هستند. اجبار شرکت برای حذف محدودیت‌های ایمنی از فناوری خود سؤالاتی را ایجاد می‌کند که بسیار فراتر از نزاع‌های خرید سنتی است.

متخصصان حقوقی یادآوری کردند که چنین استفاده‌ای از DPA احتمالاً با چالش‌های فوری دادرسی روبرو خواهد شد. قانون برای اولویت‌های تولید و زنجیره تامین طراحی شده است، نه برای نادیده گرفتن سیاست‌های ایمنی داخلی شرکت در مورد نحوه استقرار فناوری آن. هر تلاشی برای اعمال آن می‌تواند پیش‌نمونه‌ای با پیامد‌های دورگذر برای تمام بخش فناوری تعیین کند.

واکنش‌های صنعت و پیامد‌های گسترده‌تر

این تنش‌ فشار‌های قوی از طریق Silicon Valley سوق داده است. سایر شرکت‌های هوش مصنوعی نزدیکی‌اند، آگاه به این‌که نتیجه می‌تواند هنجار‌های جدیدی برای نحوه تعامل دولت با بخش خصوصی هوش مصنوعی تعیین کند. چندین رهبر صنعت به‌طور خصوصی نگران بوده‌اند که تحت فشار شرط‌های پنتاگون می‌تواند تحقیقات ایمنی که بسیاری آن را برای جلوگیری از سوء‌استفاده فاجعه‌انگیز هوش مصنوعی ضروری می‌دانند را فرو‌ریخت.

پاسخ‌های کنگره مخلوط بوده‌اند. شاهین‌های در کمیته خدمات مسلح موضع هگسث را پشتیبانی کردند، با استدلال که امنیت ملی باید بر ترجیحات ایمنی شرکتی اولویت داشته باشد. دیگران، به‌ویژه اعضای کمیته تجارت سنا، هشدار دادند که بر شرکت‌های هوش مصنوعی فشار آوردن می‌تواند استعداد و نوآوری را خارج از کشور رانند، در نهایت موضع رقابتی آمریکا را ضعیف کند.

اتحادیه اروپا نیز توجه کرده است. مقامات اتحادیه اروپا بر روی تنش به عنوان شاهدی برای حمایت از رویکرد تنظیمی‌تر خود نسبت به حاکمیت هوش مصنوعی اشاره کردند، با یک دیپلمات ارشد اظهار داشت که این اپیزود خطرات ترک تصمیمات ایمنی هوش مصنوعی به نزوات مقام‌های سیاسی را نشان می‌دهد.

بعد چه اتفاق خواهد افتاد

مهلت جمعه نزدیک است. اگر Anthropic امتناع ورزد، هگسث می‌تواند بر تهدید خود برای حذف شرکت از کانال‌های تدارکات دفاعی عمل کند، جریان درآمد قابل‌توجهی را قطع کند و پیام‌ی برای سایر شرکت‌های هوش مصنوعی ارسال کند. گزینه قانون تولید دفاعی باقی‌مانده است اما نمایش تشدید بسیار درامتیک با نتایج حقوقی نامشخص است.

برای Anthropic، محاسبه وجودی است. تسلیم می‌تواند اصول ایمنی که هویت شرکتی خود را تعریف می‌کند و اعتماد کارکنانی که به‌طور خاص به‌دلیل تعهد‌های ایمنی شرکت پیوسته‌اند را فرو‌ریخت. مقاومت می‌تواند برای شرکت نه تنها قرارداد‌های دولتی بلکه حسن‌نیت سیاسی را در زمانی که تنظیم هوش مصنوعی به‌طور فعال در واشنگتن شکل می‌گیرد تحمیل کند.

هرچه نتیجه باشد، تنش یک چیز واضح کرده است: ماه عسل بین شرکت‌های هوش مصنوعی و دولت تمام شده است. دوران همکاری آدب‌سلوکی بر سیاست هوش مصنوعی در حال جای‌دادن به مذاکرات شدید است جایی که میز‌های قمار نه در درآمد فصلی بلکه در سؤالات بنیادی چگونگی حاکمیت قدرتمندترین فناوری در تاریخ بشریت اندازه‌گیری می‌شود.

این مقاله بر اساس گزارش Ars Technica است. مقاله اصلی را بخوانید.