Popyt na tokeny rośnie wykładniczo

Nvidia po raz kolejny przepisała księgi rekordów. Producent chipów odnotował kolejny rekordowy kwartał, napędzany tym, co dyrektor generalny Jensen Huang opisał jako bezprecedensowy wzrost popytu na infrastrukturę obliczeniową AI. „Popyt na tokeny na świecie wzrósł całkowicie wykładniczo” – oświadczył Huang podczas ogłoszenia wyników, przedstawiając nadzwyczajne wyniki finansowe firmy jako naturalną konsekwencję fundamentalnej zmiany w sposobie, w jaki globalna gospodarka zużywa moc obliczeniową.

Wyniki te rozszerzają niezwykłą passę Nvidii jako głównego beneficjenta budowy infrastruktury AI. Ponieważ firmy we wszystkich sektorach ścigają się, aby wdrożyć możliwości AI — od dostawców chmury szkolących modele graniczne po przedsiębiorstwa budujące potoki wnioskowania — biznes centrów danych GPU Nvidii stał się bijącym sercem cyklu wydatków kapitałowych, jakiego branża technologiczna nigdy wcześniej nie widziała.

Supercykl Capex trwa

Rekordowy kwartał Nvidii przypada na tle historycznych zobowiązań kapitałowych największych firm technologicznych na świecie. Hyperscalerzy, w tym Microsoft, Google, Amazon i Meta, wspólnie zobowiązali się do wydania setek miliardów dolarów na infrastrukturę AI, przy czym większość tych inwestycji trafia bezpośrednio do biznesu GPU centrów danych Nvidii.

Skala wydatków wywołała powtarzające się sceptycyzm ze strony inwestorów i analityków, którzy kwestionują, czy zwrot z inwestycji może uzasadnić tak ogromne nakłady. Jednak kwartał po kwartale główni dostawcy chmury nie tylko utrzymali, ale i przyspieszyli swoje plany wydatków kapitałowych, co sugeruje, że wewnętrzne sygnały popytu i wskaźniki adopcji klientów nadal potwierdzają tezę inwestycyjną.

Niedawne ogłoszenie przez Meta masowej umowy na chipy z AMD — zaledwie kilka dni po zobowiązaniu się do zakupu milionów procesorów graficznych Nvidia — ilustruje, że popyt na obliczenia AI jest tak intensywny, że nawet najwięksi nabywcy dywersyfikują swoją bazę dostawców, zamiast wybierać między dostawcami chipów. Rynek infrastruktury AI stał się wystarczająco duży, aby utrzymać wielu zwycięzców jednocześnie.

Poza szkoleniem: możliwość wnioskowania

Podczas gdy duża część początkowego cyklu capex AI była napędzana ogromnymi wymaganiami obliczeniowymi związanymi z trenowaniem modeli granicznych, rosnąca część popytu na GPU pochodzi obecnie z wnioskowania — procesu faktycznego uruchamiania wytrenowanych modeli w celu obsługi żądań użytkowników. W miarę jak aplikacje AI przenoszą się z laboratoriów badawczych do wdrożeń produkcyjnych obsługujących miliony użytkowników, ślad obliczeniowy wnioskowania szybko się rozszerza.

Ta zmiana jest szczególnie istotna dla Nvidii, ponieważ obciążenia wnioskowania stanowią potencjalnie większy i bardziej trwały czynnik napędzający popyt niż szkolenie. Trenowanie modelu to jednorazowy wydatek kapitałowy, choć ogromny. Wnioskowanie natomiast generuje ciągłe zapotrzebowanie na moc obliczeniową, które skaluje się wraz z użytkowaniem. W miarę jak coraz więcej aplikacji będzie zawierać możliwości AI i rośnie adopcja przez użytkowników, zapotrzebowanie na wnioskowanie rośnie w sposób, w jaki szkolenie nie może.

Odwołanie się Huanga do wykładniczego popytu na tokeny bezpośrednio odzwierciedla tę dynamikę. Każda odpowiedź chatbota zasilanego AI, uzupełnianie kodu, generowanie obrazu i przepływ pracy automatyzacji przedsiębiorstwa zużywa tokeny, które wymagają obliczeń GPU do wytworzenia. Im bardziej AI jest osadzona w codziennych interakcjach cyfrowych, tym więcej tokenów zużywa świat i tym więcej procesorów graficznych jest potrzebnych do ich wytworzenia.

Krajobraz konkurencyjny

Pomimo dominującej pozycji na rynku, Nvidia stoi w obliczu coraz bardziej konkurencyjnego środowiska. AMD zyskuje na popularności dzięki swoim akceleratorom z serii MI, o czym świadczy niedawne zobowiązanie Meta do zakupu za wiele miliardów dolarów. Niestandardowe układy scalone od głównych dostawców chmury — w tym TPU Google'a, chipy Trainium Amazona i akceleratory Maia Microsoftu — stanowią kolejny wektor konkurencji, ponieważ hyperscalerzy starają się zmniejszyć swoją zależność od jednego dostawcy.

Nvidia utrzymała swoją przewagę dzięki połączeniu wydajności sprzętowej, ekosystemu oprogramowania CUDA, który generuje znaczne koszty zmiany dostawcy, oraz szybkiego cyklu wprowadzania produktów, który sprawił, że konkurenci nieustannie nadrabiali zaległości w stosunku do poprzedniej generacji. Nadchodzące architektury Blackwell Ultra i Rubin firmy mają na celu utrzymanie tej przewagi wydajnościowej w następnej generacji skalowania AI.

Co te liczby oznaczają dla branży AI

Ciągłe rekordowe wyniki Nvidii służą jako barometr zdrowia i trajektorii szerszej branży AI. Wzrost przychodów firmy bezpośrednio odzwierciedla tempo, w jakim organizacje przekształcają ambicje AI w konkretne inwestycje infrastrukturalne. Dopóki Nvidia będzie bić rekordy, sygnał jest jasny: rozwój AI przyspiesza, a nie stabilizuje się.

Dla sektora technologicznego i szerzej dla gospodarki pytanie nie brzmi już, czy wydatki na infrastrukturę AI będą kontynuowane — najwyraźniej tak — ale czy aplikacje i strumienie przychodów zbudowane na tej infrastrukturze ostatecznie wygenerują zwroty, które uzasadnią inwestycję. Wyniki finansowe Nvidii sugerują, że firmy najbliższe krzemu są przekonane, że odpowiedź brzmi tak. Reszta branży wciąż pracuje nad tym, aby to udowodnić.

Ten artykuł jest oparty na raportach TechCrunch. Przeczytaj oryginalny artykuł.