开源模型竞赛中的新竞争者

阿里巴巴公布了其最新一代人工智能模型系列——Qwen 3.5,加剧了全球在大型语言模型领域主导地位的竞争。此次发布包含四款不同的模型——Qwen3.5-Flash、Qwen3.5-35B-A3B、Qwen3.5-122B-A10B和Qwen3.5-27B——每款模型都针对不同的用例和计算预算,同时共享一个为效率和性能而设计的通用架构。

这家中国科技巨头将Qwen 3.5定位为当前最强大的商用模型之一——特别是OpenAI的GPT-5 mini和Anthropic的Claude Sonnet 4.5——的直接竞争对手。特别引人注目的是,其竞争力不仅在于性能声明,还在于价格:阿里巴巴表示,其模型以更低的成本提供可比的质量,使得高端AI能力能够被更广泛的开发者和企业所使用。

模型阵容

Qwen 3.5家族在模型设计上采取了分层方法,提供了从超轻量级推理到重量级推理任务的选项。命名约定揭示了其架构:名称中用“A”分隔的两个数字的模型采用了混合专家(MoE)方法,在这种方法中,只有一部分参数会针对给定的输入进行激活,从而大大降低了计算成本。

Qwen3.5-Flash是速度优化版本,专为低延迟和高吞吐量至关重要的应用而设计。它被定位为聊天机器人、内容生成和常规语言任务的经济高效解决方案,在这些任务中,近乎即时的响应比最大的推理深度更重要。

Qwen3.5-35B-A3B模型采用稀疏MoE架构,总参数为350亿,但任何给定时间的激活参数仅为30亿。这种设计使其能够超越其计算重量级别,提供接近更大密集模型的质量,同时仅需一小部分推理计算。

阵容的顶端是Qwen3.5-122B-A10B,一个大规模的混合专家模型,拥有1220亿总参数和约100亿激活参数。该模型针对最苛刻的推理、编码和分析任务,阿里巴巴声称其性能可与前沿商用模型相媲美。

Qwen3.5-27B作为该系列的补充,是一个密集模型——这意味着在推理过程中所有270亿参数都会被激活——专为在不同任务中一致性能比任何单一维度的最大效率更重要的工作负载而设计。

开源模型战略

阿里巴巴将Qwen 3.5作为开源模型发布的决定是一项战略选择,使其区别于OpenAI以及在一定程度上Anthropic所青睐的闭源方法。通过免费提供模型权重,阿里巴巴押注生态系统采用和下游创新将产生比保持模型专有更多的价值。

这种方法已经为Qwen系列带来了回报。之前的Qwen版本已被开源社区广泛采用,针对专业应用进行了微调,并被那些无力负担或选择不依赖闭源API提供商的公司集成到商业产品中。每一次新版本的发布都加强了阿里巴巴在开源权重生态系统中作为Meta Llama系列事实替代品的地位。

发布时机也很重要。它来之际,AI行业正面临关于开源模型能否真正跟上闭源前沿系统的步伐的问题。通过Qwen 3.5,阿里巴巴正在积极地证明它们可以——而且成本大大降低。

成本优势和市场影响

成本论是阿里巴巴推销的核心。随着企业将其AI部署从实验原型扩展到处理每日数百万次请求的生产系统,来自OpenAI和Anthropic等提供商的API成本会迅速膨胀。可以自托管的开源模型完全消除了每token的费用,取而代之的是固定的基础设施成本,这些成本在规模化时变得越来越经济。

混合专家架构进一步放大了这一优势。通过每次推理调用只激活总参数的一小部分,MoE模型提供了比同等质量的密集模型更好的每美元性能。对于在GPU集群上运行AI工作负载的公司来说,这意味着在现有基础设施上降低硬件需求或提高吞吐量。

对AI格局的意义

Qwen 3.5的发布强化了一个在2025年和2026年初加速的趋势:开源模型和闭源模型之间的差距正在比许多人预测的更快地缩小。曾经在能力上占据主导地位的前沿闭源模型,现在在大多数基准测试中,开源替代品已经近在咫尺,同时提供了闭源API无法比拟的成本、可定制性和数据隐私优势。

对于评估其AI战略的开发者和企业来说,Qwen 3.5系列提供了一个引人注目的选择,值得与GPT-5 mini、Claude Sonnet 4.5和Meta的Llama 4系列认真考虑。随着最先进AI能力的成本持续下降,闭源提供商证明其价格溢价的压力只会加剧。

本文基于The Decoder的报道。 阅读原文