Ein neuer Anwärter im Rennen um offene Modelle

Alibaba hat seine neueste Familie von künstlichen Intelligenzmodellen, die Qwen 3.5-Serie, enthüllt und damit den globalen Wettbewerb um die Dominanz im Bereich der großen Sprachmodelle intensiviert. Die Veröffentlichung umfasst vier verschiedene Modelle – Qwen3.5-Flash, Qwen3.5-35B-A3B, Qwen3.5-122B-A10B und Qwen3.5-27B – die jeweils auf unterschiedliche Anwendungsfälle und Rechenbudgets abzielen und gleichzeitig eine gemeinsame Architektur für Effizienz und Leistung teilen.

Der chinesische Technologieriese positioniert Qwen 3.5 als direkten Konkurrenten einiger der leistungsfähigsten kommerziellen Modelle, die heute verfügbar sind, insbesondere GPT-5 mini von OpenAI und Claude Sonnet 4.5 von Anthropic. Was die Herausforderung besonders überzeugend macht, sind nicht nur die Leistungsansprüche, sondern auch der Preis: Alibaba gibt an, dass seine Modelle vergleichbare Qualität zu einem Bruchteil der Kosten liefern und damit High-End-KI-Fähigkeiten für eine viel breitere Palette von Entwicklern und Unternehmen zugänglich machen.

Die Modellreihe

Die Qwen 3.5-Familie verfolgt einen gestaffelten Ansatz beim Modelldesign und bietet Optionen, die von ultra-leichter Inferenz bis hin zu anspruchsvollen Schlussfolgerungsaufgaben reichen. Die Namenskonvention verrät die Architektur: Modelle mit zwei durch „A“ getrennten Zahlen verwenden einen Mixture-of-Experts (MoE)-Ansatz, bei dem nur eine Teilmenge der Parameter für eine bestimmte Eingabe aktiviert wird, was die Rechenkosten drastisch reduziert.

Qwen3.5-Flash ist die geschwindigkeitsoptimierte Variante, die für Anwendungen entwickelt wurde, bei denen niedrige Latenz und hoher Durchsatz entscheidend sind. Sie wird als kostengünstige Lösung für Chatbots, Content-Generierung und routinemäßige Sprachaufgaben positioniert, bei denen nahezu sofortige Antworten wichtiger sind als maximale Schlussfolgerungstiefe.

Das Modell Qwen3.5-35B-A3B verwendet eine spärliche MoE-Architektur mit insgesamt 35 Milliarden Parametern, von denen jedoch nur 3 Milliarden zu einem bestimmten Zeitpunkt aktiv sind. Dieses Design ermöglicht es, weit über seine rechnerische Gewichtsklasse hinaus zu agieren und eine Qualität zu liefern, die viel größeren dichten Modellen nahekommt, während nur ein Bruchteil der Inferenzberechnung benötigt wird.

An der Spitze der Reihe steht Qwen3.5-122B-A10B, ein groß angelegtes Mixture-of-Experts-Modell mit 122 Milliarden Gesamtparametern und etwa 10 Milliarden aktiven Parametern. Dieses Modell zielt auf die anspruchsvollsten Schlussfolgerungs-, Code- und Analyseaufgaben ab, bei denen Alibaba eine Leistung beansprucht, die mit kommerziellen Spitzenmodellen konkurrenzfähig ist.

Qwen3.5-27B rundet die Familie als dichtes Modell ab – das bedeutet, dass alle 27 Milliarden Parameter während der Inferenz aktiv sind – und ist für Workloads konzipiert, bei denen eine konsistente Leistung über verschiedene Aufgaben hinweg wichtiger ist als maximale Effizienz in einer einzelnen Dimension.

Die Open-Model-Strategie

Alibabas Entscheidung, Qwen 3.5 als offene Modelle zu veröffentlichen, ist eine strategische Wahl, die es von den Closed-Source-Ansätzen unterscheidet, die von OpenAI und, in gewissem Maße, von Anthropic bevorzugt werden. Durch die freie Verfügbarkeit der Gewichte setzt Alibaba darauf, dass die Akzeptanz im Ökosystem und nachgelagerte Innovationen mehr Wert generieren, als die Modelle proprietär zu halten.

Dieser Ansatz hat sich für die Qwen-Familie bereits ausgezahlt. Frühere Qwen-Veröffentlichungen wurden von der Open-Source-Community weitgehend übernommen, für spezialisierte Anwendungen feinabgestimmt und von Unternehmen in kommerzielle Produkte integriert, die sich entweder keine geschlossenen API-Anbieter leisten können oder sich nicht auf sie verlassen wollen. Jede neue Veröffentlichung stärkt Alibabas Position als de-facto-Alternative zur Llama-Familie von Meta im Ökosystem der offenen Gewichte.

Der Zeitpunkt der Veröffentlichung ist ebenfalls bedeutsam. Sie kommt zu einer Zeit, in der die KI-Branche mit der Frage ringt, ob offene Modelle wirklich mit geschlossenen Spitzensystemen mithalten können. Mit Qwen 3.5 argumentiert Alibaba aggressiv, dass sie es können – und das zu deutlich geringeren Kosten.

Kostenvorteil und Marktauswirkungen

Das Kostenargument steht im Mittelpunkt von Alibabas Angebot. Wenn Unternehmen ihre KI-Implementierungen von experimentellen Prototypen zu Produktionssystemen skalieren, die täglich Millionen von Anfragen verarbeiten, können die API-Kosten von Anbietern wie OpenAI und Anthropic schnell explodieren. Offene Modelle, die selbst gehostet werden können, eliminieren die Kosten pro Token vollständig und ersetzen sie durch feste Infrastrukturkosten, die bei zunehmender Skalierung immer wirtschaftlicher werden.

Die Mixture-of-Experts-Architektur verstärkt diesen Vorteil weiter. Durch die Aktivierung nur eines Bruchteils der Gesamtparameter pro Inferenzaufruf liefern MoE-Modelle eine bessere Leistung pro Dollar als dichte Modelle von vergleichbarer Qualität. Für Unternehmen, die KI-Workloads auf GPU-Clustern ausführen, bedeutet dies entweder geringere Hardwareanforderungen oder einen höheren Durchsatz auf bestehender Infrastruktur.

Was es für die KI-Landschaft bedeutet

Die Veröffentlichung von Qwen 3.5 verstärkt einen Trend, der sich im Laufe des Jahres 2025 und bis 2026 beschleunigt hat: Die Lücke zwischen offenen und geschlossenen Modellen schließt sich schneller als viele erwartet hatten. Wo geschlossene Spitzenmodelle einst einen dominanten Vorsprung in Bezug auf die Fähigkeiten hatten, sind offene Alternativen nun bei den meisten Benchmarks in Reichweite und bieten gleichzeitig Vorteile in Bezug auf Kosten, Anpassbarkeit und Datenschutz, die geschlossene APIs nicht bieten können.

Für Entwickler und Unternehmen, die ihre KI-Strategien bewerten, bietet die Qwen 3.5-Familie eine überzeugende Option, die neben GPT-5 mini, Claude Sonnet 4.5 und Metas Llama 4-Serie ernsthaft in Betracht gezogen werden sollte. Da die Kosten für modernste KI-Fähigkeiten weiter sinken, wird der Druck auf Closed-Source-Anbieter, ihre Preisaufschläge zu rechtfertigen, nur noch zunehmen.

Dieser Artikel basiert auf Berichten von The Decoder. Lesen Sie den Originalartikel.