Nowy pretendent w wyścigu modeli otwartych

Alibaba zaprezentowało swoją najnowszą rodzinę modeli sztucznej inteligencji, serię Qwen 3.5, intensyfikując globalną konkurencję o dominację w przestrzeni dużych modeli językowych. Wydanie obejmuje cztery odrębne modele — Qwen3.5-Flash, Qwen3.5-35B-A3B, Qwen3.5-122B-A10B i Qwen3.5-27B — każdy skierowany do różnych przypadków użycia i budżetów obliczeniowych, przy jednoczesnym dzieleniu wspólnej architektury zaprojektowanej z myślą o wydajności i efektywności.

Chiński gigant technologiczny pozycjonuje Qwen 3.5 jako bezpośredniego konkurenta niektórych z najbardziej wydajnych dostępnych obecnie modeli komercyjnych, w szczególności GPT-5 mini firmy OpenAI i Claude Sonnet 4.5 firmy Anthropic. To, co czyni wyzwanie szczególnie przekonującym, to nie tylko twierdzenia o wydajności, ale także cena: Alibaba twierdzi, że jego modele zapewniają porównywalną jakość przy ułamku kosztów, czyniąc zaawansowane możliwości AI dostępnymi dla znacznie szerszego grona programistów i przedsiębiorstw.

Lista modeli

Rodzina Qwen 3.5 przyjmuje warstwowe podejście do projektowania modeli, oferując opcje od ultra-lekkiej inferencji po wymagające zadania rozumowania. Konwencja nazewnictwa ujawnia architekturę: modele z dwoma liczbami oddzielonymi przez „A” wykorzystują podejście mixture-of-experts (MoE), w którym tylko podzbiór parametrów jest aktywowany dla danego wejścia, drastycznie zmniejszając koszty obliczeniowe.

Qwen3.5-Flash to wariant zoptymalizowany pod kątem szybkości, przeznaczony do zastosowań, w których krytyczne jest niskie opóźnienie i wysoka przepustowość. Jest pozycjonowany jako opłacalne rozwiązanie dla chatbotów, generowania treści i rutynowych zadań językowych, gdzie niemal natychmiastowe odpowiedzi mają większe znaczenie niż maksymalna głębokość rozumowania.

Model Qwen3.5-35B-A3B wykorzystuje rzadką architekturę MoE z 35 miliardami całkowitych parametrów, ale tylko 3 miliardami aktywnymi w danym momencie. Taka konstrukcja pozwala mu osiągać wyniki znacznie przekraczające jego klasę wagową, zapewniając jakość zbliżoną do znacznie większych modeli gęstych, przy jednoczesnym wymogu ułamka kosztów obliczeniowych inferencji.

Na szczycie listy znajduje się Qwen3.5-122B-A10B, model mixture-of-experts na dużą skalę ze 122 miliardami całkowitych parametrów i około 10 miliardami aktywnych parametrów. Ten model jest przeznaczony do najbardziej wymagających zadań rozumowania, kodowania i analizy, gdzie Alibaba twierdzi, że jego wydajność jest konkurencyjna w stosunku do najnowocześniejszych modeli komercyjnych.

Qwen3.5-27B uzupełnia rodzinę jako model gęsty — co oznacza, że wszystkie 27 miliardów parametrów są aktywne podczas inferencji — zaprojektowany do obciążeń, w których spójna wydajność w różnych zadaniach jest ważniejsza niż maksymalna efektywność w jednym wymiarze.

Strategia modeli otwartych

Decyzja Alibaba o wydaniu Qwen 3.5 jako modeli otwartych jest strategicznym wyborem, który odróżnia go od podejść zamkniętych, preferowanych przez OpenAI i, w pewnym stopniu, przez Anthropic. Udostępniając wagi swobodnie, Alibaba zakłada, że przyjęcie przez ekosystem i innowacje pochodne wygenerują większą wartość niż utrzymywanie modeli jako własności intelektualnej.

To podejście już przyniosło korzyści rodzinie Qwen. Poprzednie wersje Qwen zostały szeroko przyjęte przez społeczność open-source, dostosowane do specjalistycznych zastosowań i zintegrowane z produktami komercyjnymi przez firmy, które albo nie mogą sobie pozwolić, albo nie chcą polegać na dostawcach zamkniętych API. Każde nowe wydanie wzmacnia pozycję Alibaba jako de facto alternatywy dla rodziny Llama firmy Meta w ekosystemie otwartych wag.

Czas wydania jest również znaczący. Pojawia się w momencie, gdy branża AI zmaga się z pytaniami, czy otwarte modele mogą rzeczywiście dotrzymać kroku zamkniętym systemom najnowszej generacji. Wraz z Qwen 3.5, Alibaba agresywnie argumentuje, że mogą — i to przy znacznie niższych kosztach.

Przewaga kosztowa i implikacje rynkowe

Argument kosztowy jest kluczowy w propozycji Alibaba. W miarę jak przedsiębiorstwa skalują swoje wdrożenia AI od prototypów eksperymentalnych do systemów produkcyjnych przetwarzających miliony zapytań dziennie, koszty API od dostawców takich jak OpenAI i Anthropic mogą szybko rosnąć. Otwarte modele, które można hostować samodzielnie, całkowicie eliminują opłaty za token, zastępując je stałymi kosztami infrastruktury, które stają się coraz bardziej ekonomiczne w dużej skali.

Architektura mixture-of-experts dodatkowo wzmacnia tę przewagę. Aktywując tylko ułamek całkowitych parametrów na wywołanie inferencji, modele MoE zapewniają lepszą wydajność za dolara niż modele gęste o porównywalnej jakości. Dla firm uruchamiających obciążenia AI na klastrach GPU, przekłada się to bezpośrednio na niższe wymagania sprzętowe lub wyższą przepustowość na istniejącej infrastrukturze.

Co to oznacza dla krajobrazu AI

Wydanie Qwen 3.5 wzmacnia trend, który przyspieszał w 2025 i 2026 roku: luka między otwartymi a zamkniętymi modelami zmniejsza się szybciej, niż wielu przewidywało. Tam, gdzie kiedyś zamknięte modele najnowszej generacji miały dominującą przewagę w możliwościach, otwarte alternatywy są teraz w zasięgu większości benchmarków, oferując jednocześnie zalety w zakresie kosztów, możliwości dostosowania i prywatności danych, których zamknięte API nie mogą dorównać.

Dla programistów i przedsiębiorstw oceniających swoje strategie AI, rodzina Qwen 3.5 stanowi przekonującą opcję, która zasługuje na poważne rozważenie obok GPT-5 mini, Claude Sonnet 4.5 i serii Llama 4 firmy Meta. W miarę jak koszty najnowocześniejszych możliwości AI nadal spadają, presja na dostawców zamkniętego oprogramowania, aby uzasadnili swoją premię cenową, będzie tylko narastać.

Ten artykuł opiera się na doniesieniach The Decoder. Przeczytaj oryginalny artykuł.