Pesaing Baru dalam Perlombaan Model Terbuka

Alibaba telah meluncurkan keluarga model kecerdasan buatan terbarunya, seri Qwen 3.5, yang mengintensifkan persaingan global untuk mendominasi ruang model bahasa besar. Rilis ini terdiri dari empat model berbeda — Qwen3.5-Flash, Qwen3.5-35B-A3B, Qwen3.5-122B-A10B, dan Qwen3.5-27B — masing-masing menargetkan kasus penggunaan dan anggaran komputasi yang berbeda sambil berbagi arsitektur umum yang dirancang untuk efisiensi dan kinerja.

Raksasa teknologi Tiongkok ini memposisikan Qwen 3.5 sebagai pesaing langsung untuk beberapa model komersial paling mumpuni yang tersedia saat ini, khususnya GPT-5 mini dari OpenAI dan Claude Sonnet 4.5 dari Anthropic. Yang membuat tantangan ini sangat menarik bukan hanya klaim kinerja, tetapi juga titik harga: Alibaba mengatakan modelnya memberikan kualitas yang sebanding dengan sebagian kecil dari biaya, membuat kemampuan AI kelas atas dapat diakses oleh berbagai pengembang dan perusahaan yang jauh lebih luas.

Lini Produk Model

Keluarga Qwen 3.5 mengadopsi pendekatan bertingkat untuk desain model, menawarkan opsi yang mencakup dari inferensi ultra-ringan hingga tugas penalaran berat. Konvensi penamaan mengungkapkan arsitekturnya: model dengan dua angka yang dipisahkan oleh "A" menggunakan pendekatan mixture-of-experts (MoE), di mana hanya sebagian dari parameter yang aktif untuk input tertentu, secara dramatis mengurangi biaya komputasi.

Qwen3.5-Flash adalah varian yang dioptimalkan untuk kecepatan, dirancang untuk aplikasi di mana latensi rendah dan throughput tinggi sangat penting. Model ini diposisikan sebagai solusi hemat biaya untuk chatbot, pembuatan konten, dan tugas bahasa rutin di mana respons yang hampir instan lebih penting daripada kedalaman penalaran maksimum.

Model Qwen3.5-35B-A3B menggunakan arsitektur MoE yang jarang dengan total 35 miliar parameter tetapi hanya 3 miliar yang aktif pada waktu tertentu. Desain ini memungkinkannya untuk memberikan kinerja yang jauh melampaui kelas berat komputasinya, memberikan kualitas yang mendekati model padat yang jauh lebih besar sambil membutuhkan sebagian kecil dari komputasi inferensi.

Di puncak lini produk terdapat Qwen3.5-122B-A10B, model mixture-of-experts skala besar dengan total 122 miliar parameter dan sekitar 10 miliar parameter aktif. Model ini menargetkan tugas penalaran, pengkodean, dan analitis yang paling menuntut, di mana Alibaba mengklaim kinerja yang kompetitif dengan model komersial terdepan.

Qwen3.5-27B melengkapi keluarga ini sebagai model padat — yang berarti semua 27 miliar parameter aktif selama inferensi — dirancang untuk beban kerja di mana kinerja yang konsisten di berbagai tugas lebih penting daripada efisiensi maksimum pada satu dimensi tunggal.

Strategi Model Terbuka

Keputusan Alibaba untuk merilis Qwen 3.5 sebagai model terbuka adalah pilihan strategis yang membedakannya dari pendekatan sumber tertutup yang disukai oleh OpenAI dan, pada tingkat tertentu, Anthropic. Dengan membuat bobot tersedia secara bebas, Alibaba bertaruh bahwa adopsi ekosistem dan inovasi hilir akan menghasilkan nilai lebih besar daripada menjaga model tetap proprietary.

Pendekatan ini telah memberikan hasil bagi keluarga Qwen. Rilis Qwen sebelumnya telah diadopsi secara luas di komunitas sumber terbuka, disesuaikan untuk aplikasi khusus, dan diintegrasikan ke dalam produk komersial oleh perusahaan yang tidak mampu atau memilih untuk tidak bergantung pada penyedia API tertutup. Setiap rilis baru memperkuat posisi Alibaba sebagai alternatif de facto untuk keluarga Llama dari Meta dalam ekosistem bobot terbuka.

Waktu rilis juga signifikan. Ini datang saat industri AI bergulat dengan pertanyaan tentang apakah model terbuka benar-benar dapat mengimbangi sistem terdepan yang tertutup. Dengan Qwen 3.5, Alibaba membuat argumen agresif bahwa mereka bisa — dan dengan biaya yang jauh lebih rendah.

Keunggulan Biaya dan Implikasi Pasar

Argumen biaya adalah inti dari tawaran Alibaba. Saat perusahaan menskalakan penerapan AI mereka dari prototipe eksperimental ke sistem produksi yang memproses jutaan permintaan setiap hari, biaya API dari penyedia seperti OpenAI dan Anthropic dapat membengkak dengan cepat. Model terbuka yang dapat di-host sendiri sepenuhnya menghilangkan biaya per-token, menggantinya dengan biaya infrastruktur tetap yang menjadi semakin ekonomis dalam skala besar.

Arsitektur mixture-of-experts semakin memperkuat keuntungan ini. Dengan hanya mengaktifkan sebagian kecil dari total parameter per panggilan inferensi, model MoE memberikan kinerja per dolar yang lebih baik daripada model padat dengan kualitas yang setara. Bagi perusahaan yang menjalankan beban kerja AI pada kluster GPU, ini secara langsung diterjemahkan menjadi persyaratan perangkat keras yang lebih rendah atau throughput yang lebih tinggi pada infrastruktur yang ada.

Apa Artinya bagi Lanskap AI

Rilis Qwen 3.5 memperkuat tren yang semakin cepat sepanjang tahun 2025 dan hingga 2026: kesenjangan antara model terbuka dan tertutup menyempit lebih cepat dari yang diperkirakan banyak orang. Di mana model terdepan yang tertutup pernah memegang keunggulan dominan dalam kemampuan, alternatif terbuka sekarang berada dalam jarak dekat pada sebagian besar tolok ukur, sambil menawarkan keuntungan dalam biaya, kustomisasi, dan privasi data yang tidak dapat ditandingi oleh API tertutup.

Bagi pengembang dan perusahaan yang mengevaluasi strategi AI mereka, keluarga Qwen 3.5 menghadirkan pilihan menarik yang patut dipertimbangkan dengan serius bersama GPT-5 mini, Claude Sonnet 4.5, dan seri Llama 4 dari Meta. Seiring terus menurunnya biaya kemampuan AI mutakhir, tekanan pada penyedia sumber tertutup untuk membenarkan premi harga mereka akan semakin meningkat.

Artikel ini didasarkan pada laporan dari The Decoder. Baca artikel asli.