Nvidia pochłania rynek AI. W 2025 roku zużyje 77% globalnych wafli krzemowych

Nvidia pochłania rynek AI. W 2025 roku zużyje 77% globalnych wafli krzemowych

W ciągu ostatnich kilku lat obserwowaliśmy gwałtowny rozwój rynku sztucznej inteligencji, a wraz z nim pojawiło się wiele nowych metryk służących do jego analizy – od petaflopów wydajności po gigawaty zużycia energii. Jedną z mniej oczywistych, ale niezwykle interesujących miar zaproponował Morgan Stanley, który oszacował zużycie płytek krzemowych przez procesory AI.

Wyniki tych analiz nie są zaskakujące – Nvidia dominuje na rynku i wszystko wskazuje na to, że w 2025 roku umocni swoją pozycję, odpowiadając za aż 77% światowej produkcji wafli przeznaczonych do zastosowań AI. Podczas gdy Nvidia działa na niespotykaną dotąd skalę i nadal intensyfikuje produkcję, konkurencyjne firmy – w tym AMD – tracą udziały w rynku. Analiza obejmuje również inne kluczowe podmioty, takie jak AWS, Google, Tesla, Microsoft oraz chińskich dostawców.

W nadchodzących latach Nvidia pozostanie niekwestionowanym liderem rynku AI

Jeśli przyjrzymy się szczegółowym danym udostępnionym przez Morgan Stanley, możemy zauważyć, że w 2025 roku Nvidia zwiększy swój udział w globalnym zużyciu płytek półprzewodnikowych z 51% w 2024 roku do 77% w 2025 roku i wykorzysta aż 535 000 wafli o średnicy 300 mm.

Rynkowi konkurenci, tacy jak Google i AWS, również rozwijają swoje własne rozwiązania AI, lecz ich wpływ na rynek pozostaje ograniczony. Google TPU v6 oraz AWS Trainium zyskują na popularności, jednak ich udział w globalnym zużyciu płytek AI ma spaść – odpowiednio z 19% do 10% w przypadku Google oraz z 10% do 7% w przypadku AWS. Google planuje przeznaczyć na swoje jednostki TPU v6 około 85 000 wafli, podczas gdy AWS przewiduje wykorzystanie 30 000 wafli dla Trainium 2 i 16 000 dla Trainium 3.

AMD daleko w tyle, ale przed Intelem

Sytuacja AMD wydaje się jeszcze bardziej skomplikowana – firma, mimo intensywnej pracy nad procesorami MI300, MI325 oraz MI355, w 2025 roku zmniejszy swój udział w rynku wafli przeznaczonych do AI z 9% do zaledwie 3%. Co ciekawe, nie oznacza to, że AMD zużyje mniej wafli niż dotychczas – raczej wskazuje to na dynamiczny wzrost całkowitego zapotrzebowania na półprzewodniki w segmencie AI, którego AMD nie jest w stanie równie skutecznie zagospodarować.

Intel, który wprowadził do oferty procesory Gaudi 3 (oznaczone jako Habana), utrzyma swój minimalny udział rynkowy na poziomie około 1%. Z kolei Tesla, Microsoft i chińscy dostawcy odgrywają jeszcze mniejszą rolę. Procesory Dojo i FSD firmy Tesla pozostają produktami niszowymi, a Microsoft, choć inwestuje w autorskie układy Maia 200, wciąż opiera swoje systemy AI głównie na układach Nvidii.

Nie jest do końca jasne, czy tak gwałtowny wzrost dominacji Nvidii wynika z niespotykanego popytu na jej rozwiązania AI, czy też firma zawczasu zabezpieczyła sobie dostawy kluczowych komponentów, takich jak wafle krzemowe i technologie pakowania CoWoS od TSMC. Pewne jest jednak, że w 2025 roku globalne zapotrzebowanie na wafle AI sięgnie 688 000 sztuk, a jego szacowana wartość ma wynieść około 14,57 miliarda dolarów. Należy jednak pamiętać, że liczba ta może być niedoszacowana – w 2024 roku TSMC wygenerowało przychody rzędu 64,93 miliarda dolarów, z czego 51% (ponad 32 miliardy dolarów) pochodziło z segmentu wysokowydajnych obliczeń (HPC), obejmującego również układy AI.

Jednym z kluczowych motorów napędowych wzrostu zużycia wafli AI jest najnowszy procesor graficzny Nvidii – B200. Morgan Stanley przewiduje, że układ ten samodzielnie będzie wymagał 220 000 wafli, generując przychody w wysokości 5,84 miliarda dolarów. Do dalszego umocnienia pozycji rynkowej Nvidii przyczynią się także inne modele, takie jak H100, H200 i B300, wszystkie oparte na technologii 4 nm od TSMC. Rozmiary ich matryc obliczeniowych wynoszą od 814 mm² do 850 mm², co tłumaczy ogromne zapotrzebowanie na płytki półprzewodnikowe.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Nvidia pochłania rynek AI. W 2025 roku zużyje 77% globalnych wafli krzemowych

 0
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł