اوپن ماڈل ریس میں ایک نیا دعویدار
علی بابا نے مصنوعی ذہانت کے ماڈلز کی اپنی تازہ ترین فیملی، Qwen 3.5 سیریز کا انکشاف کیا ہے، جس نے بڑے لسانی ماڈل کے شعبے میں غلبہ کے لیے عالمی مقابلہ کو تیز کر دیا ہے۔ اس ریلیز میں چار مختلف ماڈلز شامل ہیں — Qwen3.5-Flash، Qwen3.5-35B-A3B، Qwen3.5-122B-A10B، اور Qwen3.5-27B — ہر ایک مختلف استعمال کے معاملات اور کمپیوٹیشنل بجٹ کو نشانہ بناتا ہے جبکہ کارکردگی اور کارکردگی کے لیے ڈیزائن کردہ ایک مشترکہ فن تعمیر کا اشتراک کرتا ہے۔
چینی ٹیکنالوجی دیو Qwen 3.5 کو آج دستیاب سب سے زیادہ قابل تجارتی ماڈلز میں سے کچھ، خاص طور پر OpenAI کے GPT-5 منی اور Anthropic کے Claude Sonnet 4.5 کے براہ راست حریف کے طور پر پوزیشننگ کر رہا ہے۔ جو چیز چیلنج کو خاص طور پر دلکش بناتی ہے وہ صرف کارکردگی کے دعوے نہیں ہیں، بلکہ قیمت کا تعین ہے: علی بابا کا کہنا ہے کہ اس کے ماڈلز کم قیمت پر موازنہ معیار فراہم کرتے ہیں، جس سے اعلی درجے کی AI صلاحیتیں ڈویلپرز اور کاروباری اداروں کی ایک وسیع رینج کے لیے قابل رسائی ہوتی ہیں۔
ماڈل لائن اپ
Qwen 3.5 فیملی ماڈل ڈیزائن کے لیے ایک ٹائرڈ اپروچ اختیار کرتی ہے، جو الٹرا لائٹ ویٹ انفرنس سے لے کر ہیوی ویٹ ریزننگ ٹاسکس تک کے اختیارات پیش کرتی ہے۔ نامकरण کنونشن فن تعمیر کو ظاہر کرتا ہے: "A" سے الگ کردہ دو نمبروں والے ماڈلز مکسچر آف ایکسپرٹس (MoE) اپروچ کا استعمال کرتے ہیں، جہاں کسی بھی ان پٹ کے لیے صرف پیرامیٹرز کا ایک سب سیٹ فعال ہوتا ہے، جس سے کمپیوٹیشنل لاگت میں نمایاں کمی واقع ہوتی ہے۔
Qwen3.5-Flash رفتار کے لحاظ سے آپٹمائزڈ ویرینٹ ہے، جو ان ایپلی کیشنز کے لیے ڈیزائن کیا گیا ہے جہاں کم تاخیر اور اعلی تھرو پٹ اہم ہیں۔ اسے چیٹ بوٹس، مواد کی تخلیق، اور معمول کے لسانی کاموں کے لیے ایک لاگت سے موثر حل کے طور پر پوزیشن کیا گیا ہے جہاں زیادہ سے زیادہ ریزننگ کی گہرائی سے زیادہ فوری جوابات زیادہ اہم ہوتے ہیں۔
Qwen3.5-35B-A3B ماڈل 35 بلین کل پیرامیٹرز کے ساتھ ایک سپارس MoE فن تعمیر کا استعمال کرتا ہے لیکن کسی بھی وقت صرف 3 بلین فعال ہوتے ہیں۔ یہ ڈیزائن اسے اپنے کمپیوٹیشنل ویٹ کلاس سے کہیں زیادہ پنچ کرنے کی اجازت دیتا ہے، جو کہ بہت بڑے گنجان ماڈلز کے قریب معیار فراہم کرتا ہے جبکہ انفرنس کمپیوٹ کا ایک حصہ درکار ہوتا ہے۔
لائن اپ کے سب سے اوپر Qwen3.5-122B-A10B ہے، جو 122 بلین کل پیرامیٹرز اور تقریباً 10 بلین فعال پیرامیٹرز کے ساتھ ایک بڑے پیمانے پر مکسچر آف ایکسپرٹس ماڈل ہے۔ یہ ماڈل سب سے زیادہ مطالبہ کرنے والے ریزننگ، کوڈنگ، اور تجزیاتی کاموں کو نشانہ بناتا ہے، جہاں علی بابا کا دعویٰ ہے کہ کارکردگی سرحدی تجارتی ماڈلز کے ساتھ مسابقتی ہے۔
Qwen3.5-27B فیملی کو ایک گنجان ماڈل کے طور پر مکمل کرتا ہے — جس کا مطلب ہے کہ انفرنس کے دوران تمام 27 بلین پیرامیٹرز فعال ہوتے ہیں — جو ان ورک لائف کے لیے ڈیزائن کیا گیا ہے جہاں کسی ایک جہت پر زیادہ سے زیادہ کارکردگی سے زیادہ متنوع کاموں میں مستقل کارکردگی زیادہ اہم ہوتی ہے۔
اوپن ماڈل کی حکمت عملی
علی بابا کا Qwen 3.5 کو اوپن ماڈلز کے طور پر ریلیز کرنے کا فیصلہ ایک اسٹریٹجک انتخاب ہے جو اسے OpenAI اور، کسی حد تک، Anthropic کے پسند کردہ بند سورس طریقوں سے ممتاز کرتا ہے۔ وزن کو آزادانہ طور پر دستیاب کر کے، علی بابا شرط لگا رہا ہے کہ ماحولیاتی نظام کی قبولیت اور بہاؤ کی اختراعات پراپرائیٹری ماڈلز کو رکھنے سے زیادہ قدر پیدا کریں گی۔
اس اپروچ نے پہلے ہی Qwen فیملی کے لیے فوائد فراہم کیے ہیں۔ پچھلے Qwen ریلیز کو اوپن سورس کمیونٹی میں وسیع پیمانے پر اپنایا گیا ہے، خصوصی ایپلی کیشنز کے لیے فائن ٹیون کیا گیا ہے، اور ان کمپنیوں کے ذریعہ تجارتی مصنوعات میں ضم کیا گیا ہے جو بند API فراہم کنندگان پر انحصار کرنے کے متحمل نہیں ہو سکتے یا نہیں کرنا چاہتے۔ ہر نئی ریلیز علی بابا کی میٹا کے لاما فیملی کے لیے اوپن ویٹ ایکو سسٹم میں ڈی فیکٹو متبادل کے طور پر پوزیشن کو مضبوط کرتی ہے۔
ریلیز کا وقت بھی اہم ہے۔ یہ اس وقت آتا ہے جب AI انڈسٹری اس سوال سے دوچار ہے کہ کیا اوپن ماڈلز واقعی بند سرحدی سسٹمز کے ساتھ رفتار برقرار رکھ سکتے ہیں۔ Qwen 3.5 کے ساتھ، علی بابا ایک جارحانہ کیس بنا رہا ہے کہ وہ کر سکتے ہیں — اور نمایاں طور پر کم قیمت پر۔
لاگت کا فائدہ اور مارکیٹ کے مضمرات
لاگت کا استدلال علی بابا کی پیشکش کا مرکز ہے۔ جیسے جیسے کاروباری ادارے اپنے AI تعینات کو تجرباتی پروٹو ٹائپس سے لے کر روزانہ لاکھوں درخواستوں پر کارروائی کرنے والے پروڈکشن سسٹم تک بڑھاتے ہیں، OpenAI اور Anthropic جیسے فراہم کنندگان سے API کی لاگت تیزی سے بڑھ سکتی ہے۔ اوپن ماڈلز جنہیں خود ہوسٹ کیا جا سکتا ہے وہ فی ٹوکن چارجز کو مکمل طور پر ختم کر دیتے ہیں، انہیں مقررہ بنیادی ڈھانچے کے اخراجات سے بدل دیتے ہیں جو پیمانے پر تیزی سے اقتصادی بن جاتے ہیں۔
مکسچر آف ایکسپرٹس فن تعمیر اس فائدے کو مزید بڑھاتا ہے۔ فی انفرنس کال پیرامیٹرز کے صرف ایک حصے کو فعال کر کے، MoE ماڈلز مساوی معیار کے گنجان ماڈلز کے مقابلے میں بہتر کارکردگی فی ڈالر فراہم کرتے ہیں۔ GPU کلسٹرز پر AI ورک لائف چلانے والی کمپنیوں کے لیے، یہ براہ راست موجودہ بنیادی ڈھانچے پر کم ہارڈ ویئر کی ضروریات یا اعلی تھرو پٹ میں ترجمہ کرتا ہے۔
AI منظر نامے کے لیے اس کا کیا مطلب ہے
Qwen 3.5 کی ریلیز ایک ایسے رجحان کو تقویت دیتی ہے جو 2025 اور 2026 میں تیزی سے بڑھ رہا ہے: اوپن اور کلوزڈ ماڈلز کے درمیان فرق بہت سے لوگوں کی پیشین گوئی سے کہیں زیادہ تیزی سے کم ہو رہا ہے۔ جہاں سرحدی بند ماڈلز کبھی صلاحیت میں ایک کمانڈنگ لیڈ رکھتے تھے، وہیں اوپن متبادل اب زیادہ تر بینچ مارکس پر حملے کی حد میں ہیں، جبکہ لاگت، حسب ضرورت، اور ڈیٹا کی رازداری کے فوائد پیش کرتے ہیں جو بند APIs سے مماثل نہیں ہو سکتے۔
ڈویلپرز اور کاروباری اداروں کے لیے اپنی AI حکمت عملی کا جائزہ لینے کے لیے، Qwen 3.5 فیملی ایک دلکش آپشن پیش کرتی ہے جس پر GPT-5 منی، Claude Sonnet 4.5، اور Meta کے Llama 4 سیریز کے ساتھ سنجیدگی سے غور کیا جانا چاہیے۔ جیسے جیسے جدید ترین AI صلاحیتوں کی لاگت گرتی جا رہی ہے، بند سورس فراہم کنندگان پر ان کی قیمت پریمیم کو جواز دینے کا دباؤ صرف تیز ہوگا۔
یہ مضمون The Decoder کی رپورٹنگ پر مبنی ہے۔ اصل مضمون پڑھیں۔



