ابزاری از جنگ سرد برای عصر تکنولوژی جدید
رابطه بین وزارت دفاع ایالات متحده و یکی از شرکتهای هوش مصنوعی پیشرو جهان به نقطه شکستی رسیده است. وزیر دفاع پیت هگسث یک انجامنامه واضح به Anthropic صادر کرده است: موافق شوید که استفاده نظامی بدون محدود از فناوری AI خود را تا جمعه اجازه دهید، یا با اخراج از زنجیره تامین پنتاگون روبروی شوید.
این تهدید در حین یک جلسه تنشزا در واشنگتن در روز سهشنبه مطرح شد، جایی که هگسث CEO Anthropic داریو آمودی را برای آنچه منابع توصیف کردند به عنوان بحثی متخاصم درباره امتناع شرکت از دسترسی بدون محدود نظامی به مدلهای AI خود برای عملیات مخفی فراخواند. در میان مناسبترین خواستهها تدابیری برای تواناییهای نظارت داخلی و مأموریتهای خودمختار کشنده بدون نظارت مستقیم انسانی بود.
شاید قابلتوجهترین نکته اشاره هگسث به قانون تولید دفاعی بود، یک قانونی از دوران جنگ سرد که به رئیسجمهور اختیار گسترده برای اجبار صنایع داخلی به خدمت به اولویتهای دفاع ملی میدهد. ابتدا برای اطمینان از اینکه کارخانهها میتوانند برای تولید زمان جنگ تغییر یابند، طراحی شده بود، این قانون هرگز برای اجبار یک شرکت هوش مصنوعی برای تسلیم فناوری خود به کار برده نشده است — این تهدید را بیسابقه در تاریخ سیاست فناوری آمریکایی میسازد.
موضع کانون ایمنی اول Anthropic تحت فشار
Anthropic برای مدت طولانی خود را در صنعت هوش مصنوعی از طریق تاکید بر تحقیقات ایمنی و استقرار مسئولانه متمایز کرده است. این شرکت، تأسیسشده توسط محققان سابق OpenAI داریو و دانیلا آمودی، برند خود را حول مفهوم هوش مصنوعی قانونی — سیستمهای طراحیشده با محدودیتهای اخلاقی درونی برای جلوگیری از سوءاستفاده — ساخت.
این فلسفه ایمنی-اول اکنون شرکت را در مسیر برخورد با اشتهای رو به گسترش پنتاگون برای ادغام هوش مصنوعی در سراسر عملیات نظامی قرار داده است. در حالی که Anthropic با تمام قراردادهای دفاع مخالف نیست، خطوط محکم را حول برنامههای خاصی، بهطور خاص آنهایی که شامل نیروی کشنده خودمختار بدون کنترل معنادار انسانی و برنامههای نظارت گسترده در نظر گرفتن جمعیت داخلی هستند، رسم کرده است.
موضع شرکت یک بحث گستردهتر در صنعت هوش مصنوعی در مورد جایی که مرزهای اخلاقی کشیده شود را منعکس میکند. سایر شرکتهای بزرگ هوش مصنوعی، از جمله OpenAI و Google، نیز با قراردادهای نظامی دستوپنجه نرم کردهاند، اگرچه بیشتر برای مذاکره از شرایط تعامل با آژانسهای دفاع آماده بودهاند. خط سختگیرانهتر Anthropic آن را در فشار تهاجمیتر و در حال افزایش واشنگتن برای تسلیح هوش مصنوعی یک رعدوبرق ساخته است.
قانون تولید دفاعی: یک سلاح غیرمعمول
قانون تولید دفاعی در سال 1950، در مراحل اولیه جنگ کره، امضاء شد. هدف اصلی آن سرراست بود: اطمینان حاصل کنید که صنعت آمریکایی میتواند به سرعت تولید را برای پشتیبانی از نیازهای نظامی تغییر دهد. در طول دههها، این برای همهچیز از تولید نیمهرسانا تا زنجیرههای تامین پزشکی پاندمی به کار برده شده است.
اما اعمال DPA برای اجبار یک شرکت هوش مصنوعی برای دسترسی به مدلهای خود نمایش یک نوع بسیار متفاوت از مداخله است. برخلاف کالای فیزیکی، مدلهای هوش مصنوعی دارایی فکری هستند که تواناییها و خطرات آن عمیقاً در همتنیده هستند. اجبار شرکت برای حذف محدودیتهای ایمنی از فناوری خود سؤالاتی را ایجاد میکند که بسیار فراتر از نزاعهای خرید سنتی است.
متخصصان حقوقی یادآوری کردند که چنین استفادهای از DPA احتمالاً با چالشهای فوری دادرسی روبرو خواهد شد. قانون برای اولویتهای تولید و زنجیره تامین طراحی شده است، نه برای نادیده گرفتن سیاستهای ایمنی داخلی شرکت در مورد نحوه استقرار فناوری آن. هر تلاشی برای اعمال آن میتواند پیشنمونهای با پیامدهای دورگذر برای تمام بخش فناوری تعیین کند.
واکنشهای صنعت و پیامدهای گستردهتر
این تنش فشارهای قوی از طریق Silicon Valley سوق داده است. سایر شرکتهای هوش مصنوعی نزدیکیاند، آگاه به اینکه نتیجه میتواند هنجارهای جدیدی برای نحوه تعامل دولت با بخش خصوصی هوش مصنوعی تعیین کند. چندین رهبر صنعت بهطور خصوصی نگران بودهاند که تحت فشار شرطهای پنتاگون میتواند تحقیقات ایمنی که بسیاری آن را برای جلوگیری از سوءاستفاده فاجعهانگیز هوش مصنوعی ضروری میدانند را فروریخت.
پاسخهای کنگره مخلوط بودهاند. شاهینهای در کمیته خدمات مسلح موضع هگسث را پشتیبانی کردند، با استدلال که امنیت ملی باید بر ترجیحات ایمنی شرکتی اولویت داشته باشد. دیگران، بهویژه اعضای کمیته تجارت سنا، هشدار دادند که بر شرکتهای هوش مصنوعی فشار آوردن میتواند استعداد و نوآوری را خارج از کشور رانند، در نهایت موضع رقابتی آمریکا را ضعیف کند.
اتحادیه اروپا نیز توجه کرده است. مقامات اتحادیه اروپا بر روی تنش به عنوان شاهدی برای حمایت از رویکرد تنظیمیتر خود نسبت به حاکمیت هوش مصنوعی اشاره کردند، با یک دیپلمات ارشد اظهار داشت که این اپیزود خطرات ترک تصمیمات ایمنی هوش مصنوعی به نزوات مقامهای سیاسی را نشان میدهد.
بعد چه اتفاق خواهد افتاد
مهلت جمعه نزدیک است. اگر Anthropic امتناع ورزد، هگسث میتواند بر تهدید خود برای حذف شرکت از کانالهای تدارکات دفاعی عمل کند، جریان درآمد قابلتوجهی را قطع کند و پیامی برای سایر شرکتهای هوش مصنوعی ارسال کند. گزینه قانون تولید دفاعی باقیمانده است اما نمایش تشدید بسیار درامتیک با نتایج حقوقی نامشخص است.
برای Anthropic، محاسبه وجودی است. تسلیم میتواند اصول ایمنی که هویت شرکتی خود را تعریف میکند و اعتماد کارکنانی که بهطور خاص بهدلیل تعهدهای ایمنی شرکت پیوستهاند را فروریخت. مقاومت میتواند برای شرکت نه تنها قراردادهای دولتی بلکه حسننیت سیاسی را در زمانی که تنظیم هوش مصنوعی بهطور فعال در واشنگتن شکل میگیرد تحمیل کند.
هرچه نتیجه باشد، تنش یک چیز واضح کرده است: ماه عسل بین شرکتهای هوش مصنوعی و دولت تمام شده است. دوران همکاری آدبسلوکی بر سیاست هوش مصنوعی در حال جایدادن به مذاکرات شدید است جایی که میزهای قمار نه در درآمد فصلی بلکه در سؤالات بنیادی چگونگی حاکمیت قدرتمندترین فناوری در تاریخ بشریت اندازهگیری میشود.
این مقاله بر اساس گزارش Ars Technica است. مقاله اصلی را بخوانید.

