Nagiging Exponential ang Demand ng Token

Muling isinulat ng Nvidia ang mga record book. Nag-post ang gumagawa ng chip ng isa pang record quarterly performance, na itinulak ng inilarawan ni CEO Jensen Huang bilang isang walang uliran na pagtaas sa demand para sa imprastraktura ng AI computing. "Ang demand para sa mga token sa mundo ay naging ganap na exponential," idineklara ni Huang sa panahon ng anunsyo ng kita, na inilalarawan ang pambihirang resulta ng pananalapi ng kumpanya bilang isang natural na kahihinatnan ng isang pangunahing pagbabago sa kung paano ginagamit ng pandaigdigang ekonomiya ang kapangyarihan ng computing.

Ang mga resulta ay nagpapalawak ng kahanga-hangang pagtakbo ng Nvidia bilang pangunahing benepisyaryo ng pagbuo ng imprastraktura ng AI. Habang ang mga kumpanya sa bawat sektor ay nagmamadali upang mag-deploy ng mga kakayahan ng AI — mula sa mga cloud provider na nagsasanay ng mga frontier model hanggang sa mga enterprise na bumubuo ng mga inference pipeline — ang negosyo ng GPU data center ng Nvidia ay naging sentro ng isang capital expenditure cycle na hindi pa nasaksihan ng industriya ng teknolohiya noon.

Nagpapatuloy ang Capex Supercycle

Ang record quarter ng Nvidia ay dumating sa gitna ng makasaysayang mga pangako sa capital expenditure mula sa pinakamalaking kumpanya ng teknolohiya sa mundo. Ang mga hyperscaler kabilang ang Microsoft, Google, Amazon, at Meta ay sama-samang nangako ng daan-daang bilyong dolyar sa paggastos ng imprastraktura ng AI, kung saan ang malaking bahagi ng pamumuhunan na iyon ay direktang dumadaloy sa negosyo ng GPU data center ng Nvidia.

Ang laki ng paggastos ay nagdulot ng paulit-ulit na pagdududa mula sa mga mamumuhunan at analyst na nagtatanong kung ang return on investment ay maaaring magbigay-katwiran sa gayong napakalaking gastos. Ngunit quarter pagkatapos ng quarter, ang mga pangunahing cloud provider ay hindi lamang nagpapanatili ngunit pinabilis ang kanilang mga plano sa capital expenditure, na nagmumungkahi na ang mga panloob na signal ng demand at mga sukatan ng pagtanggap ng customer ay patuloy na nagpapatunay sa tesis ng pamumuhunan.

Ang kamakailang anunsyo ng Meta ng isang malaking chip deal sa AMD — na dumating ilang araw lamang matapos mangako sa milyun-milyong Nvidia GPU — ay nagpapakita na ang demand para sa AI compute ay napakatindi na kahit ang pinakamalaking mamimili ay nag-iiba-iba ng kanilang supplier base sa halip na pumili sa pagitan ng mga vendor ng chip. Ang merkado ng imprastraktura ng AI ay naging sapat na malaki upang suportahan ang maraming nanalo nang sabay-sabay.

Higit sa Pagsasanay: Ang Oportunidad ng Inference

Habang ang malaking bahagi ng paunang AI capex cycle ay hinihimok ng napakalaking kinakailangan sa compute ng pagsasanay ng mga frontier model, isang lumalaking bahagi ng demand ng GPU ay nagmumula ngayon sa inference — ang proseso ng aktwal na pagpapatakbo ng mga sinanay na modelo upang magsilbi sa mga kahilingan ng user. Habang ang mga application ng AI ay lumilipat mula sa mga research lab patungo sa production deployment na naglilingkod sa milyun-milyong user, ang inference compute footprint ay mabilis na lumalawak.

Ang pagbabagong ito ay partikular na mahalaga para sa Nvidia dahil ang mga inference workload ay kumakatawan sa isang potensyal na mas malaki at mas matagal na driver ng demand kaysa sa pagsasanay. Ang pagsasanay ng isang modelo ay isang one-time capital expenditure, bagaman isang napakalaking. Ang inference, sa kabaligtaran, ay bumubuo ng patuloy na demand ng compute na sumusukat sa paggamit. Habang mas maraming application ang nagsasama ng mga kakayahan ng AI at lumalaki ang pagtanggap ng user, ang demand ng inference ay nagiging compound sa mga paraan na hindi magagawa ng pagsasanay.

Ang pagtukoy ni Huang sa exponential token demand ay direktang sumasalamin sa dinamikong ito. Bawat AI-powered chatbot response, code completion, image generation, at enterprise automation workflow ay gumagamit ng mga token na nangangailangan ng GPU compute upang makagawa. Kung mas maraming AI ang naka-embed sa pang-araw-araw na digital na interaksyon, mas maraming token ang ginagamit ng mundo, at mas maraming GPU ang kailangan upang makagawa ng mga ito.

Ang Competitive Landscape

Sa kabila ng dominanteng posisyon nito sa merkado, nahaharap ang Nvidia sa isang lalong mapagkumpitensyang kapaligiran. Ang AMD ay nakakakuha ng traction sa mga MI-series accelerator nito, tulad ng pinatunayan ng kamakailang multi-bilyong dolyar na pangako sa pagbili ng Meta. Ang custom silicon mula sa mga pangunahing cloud provider — kabilang ang mga TPU ng Google, mga Trainium chip ng Amazon, at mga Maia accelerator ng Microsoft — ay kumakatawan sa isa pang vector ng kompetisyon, dahil ang mga hyperscaler ay naghahangad na bawasan ang kanilang pagdepende sa anumang solong supplier.

Napanatili ng Nvidia ang pamumuno nito sa pamamagitan ng kumbinasyon ng pagganap ng hardware, ang CUDA software ecosystem na lumilikha ng makabuluhang switching costs, at isang mabilis na cadence ng produkto na nagpapanatili sa mga kakumpitensya na patuloy na humahabol sa nakaraang henerasyon. Ang paparating na Blackwell Ultra at Rubin architectures ng kumpanya ay idinisenyo upang mapanatili ang pamumuno sa pagganap na ito sa susunod na henerasyon ng AI scaling.

Ano ang Ibig Sabihin ng mga Numero para sa Industriya ng AI

Ang patuloy na record performance ng Nvidia ay nagsisilbing barometer para sa kalusugan at trajectory ng mas malawak na industriya ng AI. Ang paglago ng kita ng kumpanya ay direktang sumasalamin sa bilis kung saan ang mga organisasyon ay nagko-convert ng mga ambisyon ng AI sa konkretong pamumuhunan sa imprastraktura. Hangga't patuloy na nagpo-post ng mga record ang Nvidia, malinaw ang signal: ang pagbuo ng AI ay bumibilis, hindi nagpapantay.

Para sa sektor ng teknolohiya at sa ekonomiya sa mas malawak na paraan, ang tanong ay hindi na kung magpapatuloy ang paggastos ng imprastraktura ng AI — malinaw na magpapatuloy ito — ngunit kung ang mga application at stream ng kita na binuo sa ibabaw ng imprastraktura na iyon ay sa huli ay makakabuo ng mga kita na magbibigay-katwiran sa pamumuhunan. Ang mga resulta ng pananalapi ng Nvidia ay nagmumungkahi na ang mga kumpanyang pinakamalapit sa silicon ay tiwala na ang sagot ay oo. Ang natitirang bahagi ng industriya ay nagtatrabaho pa rin upang patunayan ito.

Ang artikulong ito ay batay sa pag-uulat ng TechCrunch. Basahin ang orihinal na artikulo.