ผู้ท้าชิงรายใหม่ในการแข่งขันโมเดลแบบเปิด

Alibaba ได้เปิดตัวตระกูลโมเดลปัญญาประดิษฐ์ล่าสุด คือ ซีรีส์ Qwen 3.5 ซึ่งเป็นการเพิ่มความเข้มข้นในการแข่งขันระดับโลกเพื่อครองความเป็นใหญ่ในพื้นที่โมเดลภาษาขนาดใหญ่ การเปิดตัวนี้ประกอบด้วยโมเดลที่แตกต่างกันสี่รุ่น ได้แก่ Qwen3.5-Flash, Qwen3.5-35B-A3B, Qwen3.5-122B-A10B และ Qwen3.5-27B โดยแต่ละรุ่นมีเป้าหมายเพื่อกรณีการใช้งานและงบประมาณการคำนวณที่แตกต่างกัน ในขณะที่ใช้สถาปัตยกรรมทั่วไปที่ออกแบบมาเพื่อประสิทธิภาพและประสิทธิผล

ยักษ์ใหญ่ด้านเทคโนโลยีของจีนกำลังวางตำแหน่ง Qwen 3.5 ให้เป็นคู่แข่งโดยตรงกับโมเดลเชิงพาณิชย์ที่สามารถแข่งขันได้มากที่สุดในปัจจุบัน โดยเฉพาะอย่างยิ่ง GPT-5 mini ของ OpenAI และ Claude Sonnet 4.5 ของ Anthropic สิ่งที่ทำให้การท้าทายนี้มีความน่าสนใจเป็นพิเศษ ไม่ใช่แค่การอ้างสิทธิ์ด้านประสิทธิภาพเท่านั้น แต่ยังรวมถึงจุดราคาด้วย: Alibaba กล่าวว่าโมเดลของตนมอบคุณภาพที่เทียบเคียงได้ในราคาที่ถูกกว่ามาก ทำให้ความสามารถด้าน AI ระดับสูงสามารถเข้าถึงได้สำหรับนักพัฒนาและองค์กรในวงกว้างขึ้น

รายการโมเดล

ตระกูล Qwen 3.5 ใช้แนวทางแบบแบ่งระดับในการออกแบบโมเดล โดยนำเสนอทางเลือกที่ครอบคลุมตั้งแต่การอนุมานแบบน้ำหนักเบาพิเศษไปจนถึงงานการให้เหตุผลที่ซับซ้อน ชื่อเรียกจะเปิดเผยสถาปัตยกรรม: โมเดลที่มีตัวเลขสองตัวคั่นด้วย "A" ใช้แนวทางแบบผสมผสานผู้เชี่ยวชาญ (MoE) ซึ่งมีเพียงส่วนย่อยของพารามิเตอร์เท่านั้นที่จะทำงานสำหรับอินพุตใดๆ ซึ่งช่วยลดต้นทุนการคำนวณได้อย่างมาก

Qwen3.5-Flash เป็นรุ่นที่ปรับให้เหมาะสมกับความเร็ว ออกแบบมาสำหรับแอปพลิเคชันที่ความหน่วงต่ำและปริมาณงานสูงมีความสำคัญ ถูกวางตำแหน่งเป็นโซลูชันที่คุ้มค่าสำหรับแชทบอท การสร้างเนื้อหา และงานภาษาทั่วไป ซึ่งการตอบสนองที่เกือบจะทันทีมีความสำคัญมากกว่าความลึกของการให้เหตุผลสูงสุด

โมเดล Qwen3.5-35B-A3B ใช้สถาปัตยกรรม MoE แบบเบาบาง (sparse MoE) โดยมีพารามิเตอร์ทั้งหมด 35 พันล้าน แต่มีเพียง 3 พันล้านที่ทำงานอยู่ ณ เวลาใดเวลาหนึ่ง การออกแบบนี้ช่วยให้สามารถทำงานได้ดีเกินกว่าระดับน้ำหนักการคำนวณของมัน โดยมอบคุณภาพที่ใกล้เคียงกับโมเดลแบบหนาแน่น (dense) ที่ใหญ่กว่ามาก ในขณะที่ต้องการเพียงเศษเสี้ยวของการคำนวณการอนุมาน

ที่จุดสูงสุดของรายการคือ Qwen3.5-122B-A10B ซึ่งเป็นโมเดลแบบผสมผสานผู้เชี่ยวชาญขนาดใหญ่ที่มีพารามิเตอร์ทั้งหมด 122 พันล้าน และพารามิเตอร์ที่ทำงานอยู่ประมาณ 10 พันล้าน โมเดลนี้มุ่งเป้าไปที่งานการให้เหตุผล การเขียนโค้ด และการวิเคราะห์ที่ต้องการมากที่สุด ซึ่ง Alibaba อ้างว่าประสิทธิภาพสามารถแข่งขันกับโมเดลชั้นนำเชิงพาณิชย์ได้

Qwen3.5-27B เป็นโมเดลแบบหนาแน่น — ซึ่งหมายความว่าพารามิเตอร์ทั้งหมด 27 พันล้านจะทำงานระหว่างการอนุมาน — ซึ่งออกแบบมาสำหรับปริมาณงานที่ประสิทธิภาพที่สม่ำเสมอในงานที่หลากหลายมีความสำคัญมากกว่าประสิทธิภาพสูงสุดในมิติใดมิติหนึ่ง

กลยุทธ์โมเดลแบบเปิด

การตัดสินใจของ Alibaba ในการเปิดตัว Qwen 3.5 ในฐานะโมเดลแบบเปิดเป็นการเลือกเชิงกลยุทธ์ที่ทำให้แตกต่างจากแนวทางแบบปิดที่ OpenAI และ Anthropic ในระดับหนึ่งนิยมใช้ โดยการทำให้พารามิเตอร์ (weights) สามารถใช้งานได้ฟรี Alibaba กำลังเดิมพันว่าการยอมรับในระบบนิเวศและนวัตกรรมดาวน์สตรีมจะสร้างมูลค่าได้มากกว่าการเก็บโมเดลไว้เป็นกรรมสิทธิ์

แนวทางนี้ได้ให้ผลตอบแทนแก่ตระกูล Qwen แล้ว การเปิดตัว Qwen ก่อนหน้านี้ได้รับการยอมรับอย่างกว้างขวางในชุมชนโอเพนซอร์ส ถูกปรับแต่ง (fine-tuned) สำหรับแอปพลิเคชันเฉพาะ และถูกรวมเข้ากับผลิตภัณฑ์เชิงพาณิชย์โดยบริษัทต่างๆ ที่ไม่สามารถจ่ายได้หรือไม่เลือกที่จะพึ่งพาผู้ให้บริการ API แบบปิด การเปิดตัวแต่ละครั้งจะเสริมสร้างตำแหน่งของ Alibaba ในฐานะทางเลือกโดยพฤตินัยแทนตระกูล Llama ของ Meta ในระบบนิเวศของโมเดลแบบเปิด

ช่วงเวลาของการเปิดตัวก็มีความสำคัญเช่นกัน มันมาถึงในขณะที่อุตสาหกรรม AI กำลังเผชิญกับคำถามว่าโมเดลแบบเปิดสามารถตามทันระบบชั้นนำแบบปิดได้จริงหรือไม่ ด้วย Qwen 3.5 Alibaba กำลังสร้างข้อโต้แย้งที่แข็งกร้าวว่าพวกเขาสามารถทำได้ — และด้วยต้นทุนที่ต่ำกว่าอย่างมาก

ข้อได้เปรียบด้านต้นทุนและผลกระทบต่อตลาด

ข้อโต้แย้งด้านต้นทุนเป็นหัวใจสำคัญของข้อเสนอของ Alibaba เมื่อองค์กรต่างๆ ขยายการใช้งาน AI ของตนจากการทดลองต้นแบบไปสู่ระบบการผลิตที่ประมวลผลคำขอหลายล้านรายการต่อวัน ค่าใช้จ่าย API จากผู้ให้บริการเช่น OpenAI และ Anthropic อาจเพิ่มขึ้นอย่างรวดเร็ว โมเดลแบบเปิดที่สามารถโฮสต์ด้วยตนเองจะกำจัดการคิดค่าบริการต่อโทเค็นโดยสิ้นเชิง โดยแทนที่ด้วยต้นทุนโครงสร้างพื้นฐานคงที่ซึ่งจะประหยัดมากขึ้นเรื่อยๆ เมื่อขยายขนาด

สถาปัตยกรรมแบบผสมผสานผู้เชี่ยวชาญช่วยเพิ่มข้อได้เปรียบนี้ให้มากยิ่งขึ้น โดยการเปิดใช้งานเพียงส่วนเล็กๆ ของพารามิเตอร์ทั้งหมดต่อการเรียกอนุมาน โมเดล MoE จะให้ประสิทธิภาพต่อดอลลาร์ที่ดีกว่าโมเดลแบบหนาแน่นที่มีคุณภาพเทียบเท่า สำหรับบริษัทที่ใช้งานปริมาณงาน AI บนคลัสเตอร์ GPU สิ่งนี้จะแปลโดยตรงเป็นความต้องการฮาร์ดแวร์ที่ลดลง หรือปริมาณงานที่สูงขึ้นบนโครงสร้างพื้นฐานที่มีอยู่

ความหมายต่อภูมิทัศน์ AI

การเปิดตัว Qwen 3.5 ตอกย้ำแนวโน้มที่กำลังเร่งตัวขึ้นตลอดปี 2025 และเข้าสู่ปี 2026: ช่องว่างระหว่างโมเดลแบบเปิดและแบบปิดกำลังแคบลงเร็วกว่าที่หลายคนคาดการณ์ไว้ ในอดีตโมเดลชั้นนำแบบปิดเคยมีความได้เปรียบด้านความสามารถอย่างมาก ปัจจุบันทางเลือกแบบเปิดก็อยู่ในระยะที่สามารถแข่งขันได้ในเกณฑ์มาตรฐานส่วนใหญ่ ในขณะเดียวกันก็มอบข้อได้เปรียบด้านต้นทุน ความสามารถในการปรับแต่ง และความเป็นส่วนตัวของข้อมูลที่ API แบบปิดไม่สามารถเทียบได้

สำหรับนักพัฒนาและองค์กรที่ประเมินกลยุทธ์ AI ของตน ตระกูล Qwen 3.5 นำเสนอทางเลือกที่น่าสนใจซึ่งสมควรได้รับการพิจารณาอย่างจริงจัง ควบคู่ไปกับ GPT-5 mini, Claude Sonnet 4.5 และซีรีส์ Llama 4 ของ Meta เมื่อต้นทุนของความสามารถ AI ที่ทันสมัยยังคงลดลง แรงกดดันต่อผู้ให้บริการแบบปิดเพื่อพิสูจน์ราคาพรีเมียมของพวกเขาจะยิ่งทวีความรุนแรงขึ้นเท่านั้น

บทความนี้อิงจากการรายงานของ The Decoder โปรด อ่านบทความต้นฉบับ