Un nuovo contendente nella corsa ai modelli open source

Alibaba ha svelato la sua ultima famiglia di modelli di intelligenza artificiale, la serie Qwen 3.5, intensificando la competizione globale per il dominio nello spazio dei modelli linguistici di grandi dimensioni. Il rilascio comprende quattro modelli distinti — Qwen3.5-Flash, Qwen3.5-35B-A3B, Qwen3.5-122B-A10B e Qwen3.5-27B — ognuno mirato a diversi casi d'uso e budget computazionali, pur condividendo un'architettura comune progettata per efficienza e prestazioni.

Il gigante tecnologico cinese sta posizionando Qwen 3.5 come un concorrente diretto di alcuni dei modelli commerciali più capaci disponibili oggi, in particolare GPT-5 mini di OpenAI e Claude Sonnet 4.5 di Anthropic. Ciò che rende la sfida particolarmente avvincente non sono solo le affermazioni sulle prestazioni, ma il prezzo: Alibaba afferma che i suoi modelli offrono una qualità comparabile a una frazione del costo, rendendo le capacità AI di fascia alta accessibili a una gamma molto più ampia di sviluppatori e imprese.

La gamma di modelli

La famiglia Qwen 3.5 adotta un approccio a più livelli alla progettazione dei modelli, offrendo opzioni che vanno dall'inferenza ultra-leggera ai compiti di ragionamento più impegnativi. La convenzione di denominazione rivela l'architettura: i modelli con due numeri separati da "A" utilizzano un approccio mixture-of-experts (MoE), in cui solo un sottoinsieme di parametri si attiva per un dato input, riducendo drasticamente i costi computazionali.

Qwen3.5-Flash è la variante ottimizzata per la velocità, progettata per applicazioni in cui bassa latenza e alto throughput sono critici. È posizionato come una soluzione economicamente vantaggiosa per chatbot, generazione di contenuti e attività linguistiche di routine in cui risposte quasi istantanee sono più importanti della massima profondità di ragionamento.

Il modello Qwen3.5-35B-A3B utilizza un'architettura MoE sparsa con 35 miliardi di parametri totali ma solo 3 miliardi attivi in qualsiasi momento. Questo design gli consente di superare di gran lunga la sua classe di peso computazionale, offrendo una qualità che si avvicina a modelli densi molto più grandi pur richiedendo una frazione del calcolo di inferenza.

Al vertice della gamma si trova Qwen3.5-122B-A10B, un modello mixture-of-experts su larga scala con 122 miliardi di parametri totali e circa 10 miliardi di parametri attivi. Questo modello è rivolto ai compiti di ragionamento, codifica e analisi più esigenti, dove Alibaba afferma prestazioni competitive con i modelli commerciali all'avanguardia.

Qwen3.5-27B completa la famiglia come modello denso — il che significa che tutti i 27 miliardi di parametri sono attivi durante l'inferenza — progettato per carichi di lavoro in cui prestazioni costanti su attività diverse sono più importanti della massima efficienza su una singola dimensione.

La strategia dei modelli open source

La decisione di Alibaba di rilasciare Qwen 3.5 come modelli open source è una scelta strategica che lo differenzia dagli approcci a codice chiuso favoriti da OpenAI e, in una certa misura, da Anthropic. Rendendo i pesi liberamente disponibili, Alibaba scommette che l'adozione dell'ecosistema e l'innovazione a valle genereranno più valore rispetto al mantenimento dei modelli proprietari.

Questo approccio ha già dato i suoi frutti per la famiglia Qwen. Le precedenti versioni di Qwen sono state ampiamente adottate dalla comunità open-source, affinate per applicazioni specializzate e integrate in prodotti commerciali da aziende che non possono permettersi o scelgono di non dipendere da fornitori di API chiuse. Ogni nuova versione rafforza la posizione di Alibaba come alternativa de facto alla famiglia Llama di Meta nell'ecosistema dei pesi aperti.

Anche il tempismo del rilascio è significativo. Arriva mentre l'industria dell'AI è alle prese con la questione se i modelli open source possano davvero tenere il passo con i sistemi chiusi all'avanguardia. Con Qwen 3.5, Alibaba sta sostenendo aggressivamente che possono — e a un costo notevolmente inferiore.

Vantaggio di costo e implicazioni di mercato

L'argomento del costo è centrale nella proposta di Alibaba. Man mano che le aziende scalano le loro implementazioni AI da prototipi sperimentali a sistemi di produzione che elaborano milioni di richieste al giorno, i costi delle API da fornitori come OpenAI e Anthropic possono aumentare rapidamente. I modelli open source che possono essere self-hosted eliminano completamente i costi per token, sostituendoli con costi infrastrutturali fissi che diventano sempre più economici su larga scala.

L'architettura mixture-of-experts amplifica ulteriormente questo vantaggio. Attivando solo una frazione dei parametri totali per chiamata di inferenza, i modelli MoE offrono prestazioni migliori per dollaro rispetto ai modelli densi di qualità equivalente. Per le aziende che eseguono carichi di lavoro AI su cluster GPU, ciò si traduce direttamente in requisiti hardware inferiori o in un throughput maggiore sull'infrastruttura esistente.

Cosa significa per il panorama dell'AI

Il rilascio di Qwen 3.5 rafforza una tendenza che ha accelerato nel corso del 2025 e nel 2026: il divario tra modelli open source e chiusi si sta riducendo più velocemente di quanto molti avessero previsto. Dove i modelli chiusi all'avanguardia detenevano un vantaggio dominante in termini di capacità, le alternative open source sono ora a portata di mano sulla maggior parte dei benchmark, offrendo al contempo vantaggi in termini di costo, personalizzazione e privacy dei dati che le API chiuse non possono eguagliare.

Per sviluppatori e aziende che valutano le loro strategie AI, la famiglia Qwen 3.5 presenta un'opzione convincente che merita seria considerazione insieme a GPT-5 mini, Claude Sonnet 4.5 e alla serie Llama 4 di Meta. Poiché il costo delle capacità AI all'avanguardia continua a diminuire, la pressione sui fornitori a codice chiuso per giustificare il loro sovrapprezzo non potrà che intensificarsi.

Questo articolo si basa sulla cronaca di The Decoder. Leggi l'articolo originale.