جمعہ کی مہلت اور AI اخلاقیات پر ایک سرد جنگ
Anthropic، AI حفاظت کمپنی جو Claude زبان کے ماڈل کے خاندان کے پیچھے ہے، ریاستہائے متحدہ کی وزارتِ دفاع سے ایک غیر معمولی مقابلے کا سامنا کر رہی ہے۔ رپورٹس کے مطابق، پینٹاگون نے Anthropic سے اپنی AI ٹیکنالوجی کے عسکری استعمال پر پابندیاں کمزور کرنے کا مطالبہ کیا ہے — خاص طور پر خودمختار ہتھیار کے نظام اور بڑے پیمانے پر نگرانی میں استعمال پر اس کی پابندیاں۔ Anthropic نے انکار کیا ہے، اور دفاعی محکمہ دفاعی پیداواری قانون کو متحرک کرنے کی دھمکی دیتے ہوئے جواب دیا ہے، ایک سرد جنگ کے زمانے کا قانون جو حکومت کو نجی کمپنیوں کو قومی دفاع کی پیداواری کو ترجیح دینے پر مجبور کرتا ہے۔
کمپنی کو جمعہ تک تعاون کے لیے وقت دیا گیا ہے۔ اگر Anthropic اپنا انکار برقرار رکھتا ہے تو پینٹاگون کمپنی کو قانونی طور پر عسکری مقاصد کے لیے اپنی AI صلاحیتوں تک رسائی فراہم کرنے پر مجبور کر سکتا ہے، ایک قانونی اور اخلاقی مسابقت قائم کرتے ہوئے جس کا AI صنعت میں کوئی واضح نظیر نہیں۔
Anthropic نے کیا محدود کیا ہے
اپنی بنیاد کے بعد سے، Anthropic نے قابلِ قبول استعمال کی پالیسی برقرار رکھی ہے جو واضح طور پر خودمختار ہتھیار، بڑے پیمانے پر نگرانی، اور دیگر ایپلیکیشنز میں اس کے AI ماڈلز کے استعمال کو روکتی ہے جو کمپنی محفوظ طریقے سے AI تیار کرنے کے اپنے مشن سے نابجا سمجھتے ہیں۔ یہ پابندیاں AI صنعت میں غیر معمولی نہیں ہیں — اکثر بڑی AI کمپنیوں کی متوازی پالیسیاں ہیں — لیکن Anthropic اپنی تنظیم کے بنیادی اصول کے طور پر AI حفاظت کے اپنے عہد کے لیے خاص طور پر صدائے ہے۔
کمپنی سابق OpenAI محققین Dario اور Daniela Amodei نے قائم کی تھی، جزوی طور پر AI ترقی کی تیزی اور حکمرانی کے بارے میں تشویش کی وجہ سے۔ اس کی برانڈ شناخت ذمہ دارانہ AI ترقی کے ارد گرد تعمیر کی گئی ہے، اور مصنوعی ذہانت کے نسبت محفوظ نقطہ نظر میں ایک رہنما کے طور پر اسے مقام دیا گیا ہے۔ عسکری پابندیوں سے پیچھے ہٹنا کمپنی کی بنیادی داستان کو نقصان دہ کرے گا۔
دفاعی پیداواری قانون کی دھمکی
دفاعی پیداواری قانون، کوریائی جنگ کے دوران 1950 میں دستخط کیا گیا، صدر کو نجی صنعت کو قومی دفاع کے لیے ضروری سمجھے جانے والے معاہدے اور آرڈرز کو ترجیح دینے کی تاکید کرنے کا وسیع اختیار دیتا ہے۔ یہ مختلف مقاصد کے لیے متوازی طور پر متحرک کیا گیا ہے — ابھی حال ہی میں COVID-19 وبا کے دوران طبی سپلائی کی پیداواری کو مجبور کرنے کے لیے — لیکن اسے ایک AI کمپنی کو اپنی ٹیکنالوجی عسکری استعمال کے لیے فراہم کرنے کے لیے استعمال کرنا قانون کا ایک بے مثال استعمال ہوگا۔
قانونی ماہرین اس بات پر تقسیم ہیں کہ آیا اس طرح کی تحریک عدالتی نگرانی کو روک سکتی ہے۔ DPA جسمانی سامان کی پیداواری کے لیے ڈیزائن کیا گیا تھا — اسٹیل، گولہ بارود، طبی سامان — نہ کہ سافٹویئر کمپنی کو اپنی سروس کی شرائط تبدیل کرنے پر مجبور کرنے کے لیے۔ یہ سوال کہ آیا AI ماڈل کی رسائی ایک "مصنوع" ہے جسے قانون کے تحت قبضہ کیا جا سکتا ہے، نئے قانونی سوالات اٹھاتا ہے جو عدالتیں ابھی تک حل نہیں کریں۔
- پینٹاگون Anthropic سے خودمختار ہتھیاروں اور نگرانی میں AI استعمال پر پابندیاں ہٹانے کا مطالبہ کرتا ہے
- Anthropic انکار کرتا ہے، بنیادی AI حفاظت اصول کو حوالہ دیتے ہوئے
- دفاعی محکمہ جمعہ تک دفاعی پیداواری قانون کو متحرک کرنے کی دھمکی دیتا ہے
- قانونی ماہرین بحث کرتے ہیں کہ آیا قانون سافٹویئر کمپنی کو اپنی پالیسیاں تبدیل کرنے پر مجبور کر سکتا ہے
- نتیجہ پوری AI صنعت پر حکومتی اختیار کے لیے ایک نمونہ مقرر کر سکتا ہے
صنعتی اثرات
Anthropic اور پینٹاگون کے درمیان مسابقت ایک ایسی AI صنعت میں سے گزرتا ہے جو قومی سلامتی کی ایجنسیوں کے ساتھ ایک بڑھتی ہوئی پیچیدہ تعلق کی نیویگیٹ کر رہی ہے۔ Google، Microsoft، Amazon اور OpenAI تمام اہم دفاعی معاہدے رکھتے ہیں، اور ہر ایک کو اپنی ٹیکنالوجی کے عسکری استعمال سے داخلی اور بیرونی دباؤ کا سامنا کرنا پڑا ہے۔ Google نے 2018 میں کارمند احتجاج کے بعد پروجیکٹ Maven سے شہرت سے ہاتھ کھینچا، ایک پینٹاگون AI پروگرام، اگرچہ کمپنی نے اس کے بعد سے اپنے دفاعی کام کو بڑھایا ہے۔
اگر دفاعی پیداواری قانون Anthropic کے خلاف کامیابی سے متحرک کیا جائے تو یہ ایک نمونہ مقرر کرے گا کہ امریکہ میں کام کرنے والی کوئی بھی AI کمپنی اپنی ذاتی اخلاقی ہدایات سے قطع نظر عسکری مقاصد کے لیے اپنی ٹیکنالوجی فراہم کرنے پر مجبور ہو سکتی ہے۔ یہ امکان AI حفاظت کی تحقیق کو ٹھنڈا کر سکتا ہے، حفاظت پر توجہ مرکوز کمپنیوں کو امریکی صلاحیت سے باہر منتقل کرنے کے لیے دھکیل دیتا ہے، یا ایک انقسامی صنعت تخلیق کرتا ہے جہاں کمپنیوں کو حکومتی معاہدے اور حفاظت کے عہدوں کے درمیان انتخاب کرنا ہوگا۔
اس کے برعکس، اگر Anthropic حکم کے خلاف کامیابی سے رکاوٹ بنتا ہے — قانونی چیلنج یا سیاسی مذاکرات کے ذریعے بھی — تو یہ اس اصول کو مضبوط کر سکتا ہے کہ AI کمپنیوں کو اخلاقی حدود مقرر کرنے کی حق ہے کہ ان کی ٹیکنالوجی کا استعمال کیسے کیا جاتا ہے، یہاں تک کہ جب گاہک امریکی حکومت ہو۔
وسیع تنائو
یہ مسابقت بنیادی تنائو کی عکاسی کرتا ہے جو بڑے زبان کے ماڈل اور دیگر جدید AI سسٹمز واضح عسکری استعمال کے ساتھ صلاحیت دکھانا شروع کرنے سے بنا ہے۔ امریکی حکومت AI پر غالب ہونا قومی سلامتی کے لیے ضروری سمجھتی ہے، خاص طور پر چین کے ساتھ مقابلے میں، جو کم اخلاقی رکاوٹوں کے ساتھ عسکری AI استعمال میں وسائل ڈال رہا ہے۔ پینٹاگون کے نقطہ نظر سے، ایک اہم AI کمپنی کو دفاعی استعمال کے باہر آپشن کرنے کی اجازت دینا ایک عیش و آرام ہے جو ملک متحمل نہیں ہو سکتا۔
Anthropic کے نقطہ نظر سے، پابندیاں بالکل اسی لیے موجود ہیں کیونکہ کمپنی کا خیال ہے کہ طاقتور AI سسٹمز کا لامحدود عسکری استعمال تبahی کے خطرے پیش کرتا ہے — خطرے جو صرف اس لیے ختم نہیں ہوتے ہیں کیونکہ صارف امریکی یونیفارم پہنتا ہے۔ کمپنی کی حیثیت یہ ہے کہ AI کے کچھ استعمال خطرناک سے زیادہ ہیں، قطع نظر اس کے کہ کون پوچھ رہے ہیں۔
یہ مسابقت کیسے حل ہو جاتا ہے اس سے احتمال ہے کہ آنے والے سالوں میں AI صنعت اور امریکی حکومت کے درمیان تعلق کو تشکیل دے۔ یہ ایک ٹیسٹ کیس ہے کہ آیا AI حفاظت کے عہدے قومی سلامتی کے دائم کشش کو برداشت کر سکتے ہیں — اور آیا حکومت اپنے سب سے طاقتور قانونی اوزار استعمال کرے گی تاکہ یقینی بنائے کہ وہ نہیں کر سکتے۔
یہ مضمون The Decoder کی رپورٹنگ پر مبنی ہے۔ اصل مضمون پڑھیں.



