Egy új kihívó a nyílt modell versenyben
Az Alibaba bemutatta legújabb mesterséges intelligencia modelljeinek családját, a Qwen 3.5 sorozatot, ezzel fokoztatva a nagy nyelvi modellek terén a globális verseny dominanciájáért. A kiadás négy különböző modellt foglal magában – Qwen3.5-Flash, Qwen3.5-35B-A3B, Qwen3.5-122B-A10B és Qwen3.5-27B –, mindegyik különböző felhasználási esetekre és számítási költségvetésekre célzott, miközben közös architektúrát osztanak meg, amely a hatékonyságra és a teljesítményre van tervezve.
A kínai tech óriás a Qwen 3.5-öt közvetlen versenytársként pozícionálja a mai napon elérhető legképzettebb kereskedelmi modellekkel szemben, konkrétan az OpenAI GPT-5 mini-jével és az Anthropic Claude Sonnet 4.5-ével. A kihívást különösen meggyőzővé teszi nem csak a teljesítménnyel kapcsolatos állítások, hanem az ár is: az Alibaba szerint a modelljei a hasonló minőséget sokkal alacsonyabb költséggel biztosítják, ezáltal a legmodernebb AI képességeket sokkal szélesebb körű fejlesztők és vállalkozások számára is elérhetővé téve.
A modell sorozat
A Qwen 3.5 család fokozatost megközelítést alkalmaz a modelltervezésben, lehetőségeket kínálva az ultra-könnyű inferenciától a nehéz racionális feladatokig. A megnevezési konvenció a következőképpen mutatja be az architektúrát: az „A”-val elválasztott két számot tartalmazó modellek mixture-of-experts (MoE) megközelítést használnak, ahol bármely adott bemenethez csak a paraméterek egy részhalmaza aktiválódik, drámasan csökkentve a számítási költségeket.
A Qwen3.5-Flash a sebességoptimalizált változat, amely alacsony késleltetésű és nagy átfutási képességű alkalmazásokhoz készült. Jól bevált megoldásként pozícionálják chatbotokhoz, tartalomszerkesztéshez és rutinnyelvi feladatokhoz, ahol az azonnali válaszok fontosabbak, mint a maximális racionális mélység.
A Qwen3.5-35B-A3B modell egy ritka MoE architektúrát használ 35 milliárd teljes paraméterrel, de bármely adott pillanatban csak 3 milliárd aktiválódik. Ez a kialakítás lehetővé teszi, hogy a modell a számítási kapacitása felett teljesítsen, minőséget biztosítva, amely megközelíti a sokkal nagyobb, sűrű modellek teljesítményét, miközben a felhasznált számítási kapacitás töredékét igényli.
A sorozat tetején található a Qwen3.5-122B-A10B, egy nagyméretű mixture-of-experts modell 122 milliárd teljes paraméterrel és körülbelül 10 milliárd aktív paraméterrel. Ez a modell a legigényesebb racionális, kódolási és analitikai feladatokat célozza meg, ahol az Alibaba szerint a kereskedelmi frontvonalbeli modellekkel versenyképes teljesítményt nyújt.
A Qwen3.5-27B befejezi a családot, egy sűrű modellként – ami azt jelenti, hogy az összes 27 milliárd paraméter aktív az inferenciában – olyan munkaterhelésekhez tervezve, ahol a különböző feladatokon átívelő konzisztens teljesítmény fontosabb, mint bármely egyes dimenzión a maximális hatékonyság.
A nyílt modell stratégia
Az Alibaba döntése, hogy a Qwen 3.5-öt nyílt modellként teszi elérhetővé, stratégiai választás, amely megkülönbözteti az OpenAI és, bizonyos mértékig, az Anthropic által preferált zárt forráskódú megközelítésektől. A modellek súlyainak ingyenesen elérhetővé tétele szerint az Alibaba hiszi, hogy az ökoszisztéma elfogadása és az alsó szintű innováció nagyobb értéket generál, mint a modellek tulajdonjogának megőrzése.
Ez a megközelítés már most is kifizetődött a Qwen család számára. A korábbi Qwen kiadások széles körben elterjedtek az open-source közösségben, speciális alkalmazásokhoz finomhangolták, és kereskedelmi termékekbe integrálták olyan vállalatok, amelyek nem engedhetnek meg vagy nem választják a zárt API szolgáltatóktól való függést. Minden új kiadás megerősíti az Alibaba pozícióját a Meta Llama családjának a nyílt súlyú ökoszisztémában.
A kiadás időzítése is jelentős. Éppen abban a pillanatban érkezik, amikor az AI iparág azon gondolkodik, hogy a nyílt modellek valóban lépést tudnak-e tartani a zárt frontvonalbeli rendszerekkel. A Qwen 3.5-tel az Alibaba egy agresszív esetet tesz, miszerint igen – és drámasan alacsonyabb költséggel.
Költségelőny és piaci következmények
A költségügyi érvelés központi szerepet játszik az Alibaba ajánlatában. Ahogy a vállalkozások AI telepítései a kísérleti prototípusoktól a naponta több millió kérést feldolgozó termelési rendszerekig terjednek, az OpenAI és az Anthropic szolgáltatóktól származó API költségek gyorsan felfelé ívelhetnek. Azok a nyílt modellek, amelyeket önállóan is lehet üzemeltetni, teljesen megszüntetik a tokenenkénti díjakat, helyettük rögzített infrastruktúra költségeket, amelyek skálánál egyre gazdaságosabbak.
A mixture-of-experts architektúra tovább fokoztatja ezt az előnyt. A teljes inferenciához szükséges paraméterek egy részének aktiválásával az MoE modellek jobb teljesítményt nyújtanak dollár/teljesítmény arányban, mint a hasonló minőségű sűrű modellek. GPU-klaszztereken futó AI munkaterhelések esetében ez közvetlenül alacsonyabb hardverigényt vagy nagyobb átfutási sebességet jelent a meglévő infrastruktúrán.
Mit jelent ez a mesterséges intelligencia táj számára
A Qwen 3.5 kiadása megerősít egy olyan trendet, amely 2025-ben és 2026-ban felgyorsult: a nyílt és a zárt modellek közötti különbség gyorsabban csökken, mint sokan jósolták. Ahol a frontvonalbeli zárt modellek egykor parancsoló előnyt élveztek a képességekben, a nyílt alternatívák most már a legtöbb benchmarkon belül vannak, miközben olyan előnyöket kínálnak, mint a költséghatékonyság, a testreszabhatóság és az adatvédelem, amelyekkel a zárt API-k nem tudnak versenyezni.
Azon fejlesztők és vállalkozások számára, akik az AI stratégiájukat értékelik, a Qwen 3.5 család egy meggyőző lehetőséget jelent, amelyet komolyan kell venni a GPT-5 mini, a Claude Sonnet 4.5 és a Meta Llama 4 sorozata mellett. Ahogy a legmodernebb AI képességek költsége csökken, a zárt forráskódú szolgáltatók árazási prémiumának indoklása egyre nehezebbé válik.
Ez a cikk a The Decoder tudósításán alapul. Olvassa el az eredeti cikket.


