Новый претендент в гонке открытых моделей

Alibaba представила свое последнее семейство моделей искусственного интеллекта, серию Qwen 3.5, усиливая глобальную конкуренцию за доминирование в пространстве больших языковых моделей. Релиз состоит из четырех различных моделей — Qwen3.5-Flash, Qwen3.5-35B-A3B, Qwen3.5-122B-A10B и Qwen3.5-27B — каждая из которых нацелена на различные варианты использования и вычислительные бюджеты, при этом разделяя общую архитектуру, разработанную для эффективности и производительности.

Китайский технологический гигант позиционирует Qwen 3.5 как прямого конкурента некоторым из самых мощных коммерческих моделей, доступных сегодня, в частности GPT-5 mini от OpenAI и Claude Sonnet 4.5 от Anthropic. Что делает вызов особенно убедительным, так это не только заявления о производительности, но и цена: Alibaba утверждает, что ее модели обеспечивают сопоставимое качество за малую долю стоимости, делая возможности AI высокого класса доступными для гораздо более широкого круга разработчиков и предприятий.

Линейка моделей

Семейство Qwen 3.5 использует поэтапный подход к дизайну моделей, предлагая варианты от сверхлегких для инференса до тяжелых для задач рассуждения. Соглашение об именовании раскрывает архитектуру: модели с двумя числами, разделенными «A», используют подход mixture-of-experts (MoE), где только подмножество параметров активируется для любого данного ввода, что значительно снижает вычислительные затраты.

Qwen3.5-Flash — это вариант, оптимизированный для скорости, предназначенный для приложений, где критически важны низкая задержка и высокая пропускная способность. Он позиционируется как экономичное решение для чат-ботов, генерации контента и рутинных языковых задач, где почти мгновенные ответы важнее максимальной глубины рассуждения.

Модель Qwen3.5-35B-A3B использует разреженную архитектуру MoE с 35 миллиардами общих параметров, но только 3 миллиардами активных в любой момент времени. Эта конструкция позволяет ей значительно превосходить свой вычислительный класс, обеспечивая качество, близкое к гораздо более крупным плотным моделям, при этом требуя лишь малой доли вычислительных ресурсов для инференса.

На вершине линейки находится Qwen3.5-122B-A10B, крупномасштабная модель mixture-of-experts со 122 миллиардами общих параметров и примерно 10 миллиардами активных параметров. Эта модель нацелена на самые требовательные задачи рассуждения, кодирования и анализа, где Alibaba заявляет о производительности, конкурентоспособной с передовыми коммерческими моделями.

Qwen3.5-27B завершает семейство как плотная модель — означая, что все 27 миллиардов параметров активны во время инференса — разработанная для рабочих нагрузок, где стабильная производительность в различных задачах важнее максимальной эффективности по одному измерению.

Стратегия открытых моделей

Решение Alibaba выпустить Qwen 3.5 как открытые модели является стратегическим выбором, который отличает ее от подходов с закрытым исходным кодом, предпочитаемых OpenAI и, в некоторой степени, Anthropic. Делая веса свободно доступными, Alibaba делает ставку на то, что принятие экосистемой и последующие инновации принесут больше ценности, чем сохранение моделей в качестве проприетарных.

Этот подход уже принес дивиденды для семейства Qwen. Предыдущие релизы Qwen были широко приняты сообществом open-source, доработаны для специализированных приложений и интегрированы в коммерческие продукты компаниями, которые либо не могут позволить себе, либо предпочитают не зависеть от поставщиков закрытых API. Каждый новый релиз укрепляет позицию Alibaba как фактической альтернативы семейству Llama от Meta в экосистеме открытых весов.

Время выпуска также значимо. Оно совпадает с тем, как индустрия AI борется с вопросами о том, могут ли открытые модели действительно идти в ногу с закрытыми передовыми системами. С Qwen 3.5 Alibaba активно доказывает, что они могут — и при значительно более низкой стоимости.

Преимущество в стоимости и рыночные последствия

Аргумент стоимости является центральным в предложении Alibaba. По мере того как предприятия масштабируют свои развертывания AI от экспериментальных прототипов до производственных систем, обрабатывающих миллионы запросов ежедневно, затраты на API от таких поставщиков, как OpenAI и Anthropic, могут быстро расти. Открытые модели, которые можно размещать самостоятельно, полностью исключают плату за токен, заменяя ее фиксированными затратами на инфраструктуру, которые становятся все более экономичными в масштабе.

Архитектура mixture-of-experts еще больше усиливает это преимущество. Активируя лишь часть общих параметров на каждый вызов инференса, модели MoE обеспечивают лучшее соотношение производительности и стоимости, чем плотные модели сопоставимого качества. Для компаний, выполняющих рабочие нагрузки AI на кластерах GPU, это напрямую транслируется либо в снижение требований к оборудованию, либо в увеличение пропускной способности на существующей инфраструктуре.

Что это значит для ландшафта AI

Выпуск Qwen 3.5 укрепляет тенденцию, которая ускорялась в течение 2025 и 2026 годов: разрыв между открытыми и закрытыми моделями сокращается быстрее, чем многие предсказывали. Там, где передовые закрытые модели когда-то имели значительное преимущество в возможностях, открытые альтернативы теперь находятся в пределах досягаемости по большинству бенчмарков, предлагая при этом преимущества в стоимости, настраиваемости и конфиденциальности данных, которые закрытые API не могут обеспечить.

Для разработчиков и предприятий, оценивающих свои AI-стратегии, семейство Qwen 3.5 представляет собой убедительный вариант, который заслуживает серьезного рассмотрения наряду с GPT-5 mini, Claude Sonnet 4.5 и серией Llama 4 от Meta. Поскольку стоимость передовых AI-возможностей продолжает снижаться, давление на поставщиков закрытого исходного кода, чтобы оправдать свою ценовую надбавку, будет только усиливаться.

Эта статья основана на репортаже The Decoder. Читать оригинальную статью.