TSMC ostrzega: Problemy z dostępnością GPU do szkolenia AI nie skończą się szybko

TSMC ostrzega: Problemy z dostępnością GPU do szkolenia AI nie skończą się szybko

Procesory graficzne HPC zaprojektowane do akceleracji szkolenia AI kosztują mnóstwo pieniędzy i wygląda na to, że nie ma co liczyć na szybkie spadki ich cen, bo TSMC nie będzie w stanie zaspokoić coraz większego zapotrzebowania klientów jeszcze przez dłuższy czas. 

Problemy z dostępnością co najmniej do 2025 roku

Oczekuje się, że do roku 2027 serwery AI osiągną szacunkową wartość rynkową wynoszącą 150 miliardów dolarów, a obecnie NVIDIA produkuje najbardziej zaawansowane GPU zaprojektowane w celu przyspieszenia szkolenia algorytmicznego dla chatbotów i generatywnych usług AI. TSMC, którego zadaniem jest faktyczne wytwarzanie tych GPU dla wspomnianych serwerów AI, nie będzie miało wystarczających mocy produkcyjnych, aby zaspokoić popyt rynkowy przez co najmniej półtora roku. 

TSMC nie będzie w stanie zaspokoić coraz większego zapotrzebowania klientów na GPU do AI jeszcze przez dłuższy czas. 

tsmc

Problemem jest CoWoS

W rozmowie z Nikkei prezes TSMC Mark Liu powiedział, że niedobór akceleratorów AI nie jest spowodowany brakiem chipów AI zaprojektowanych przez NVIDIA. Obecna sytuacja rynkowa w dużej mierze zależy od ograniczonych możliwości TSMC w zakresie technologii pakowania CoWoS. Liu stwierdził, że tajwańska firma nie jest w stanie obecnie zrealizować 100% zamówień swoich klientów, ale stara się „obsłużyć około 80%” zamówień produkcyjnych.

Technologia chip-on-wafer-on-substrate (CoWoS) to zaawansowana platforma pakowania, która zapewnia „najwyższą w swojej klasie wydajność i najwyższą gęstość integracji” dla zastosowań sprzętowych HPC, a przynajmniej tak reklamuje to TSMC. Jak twierdzi firma, oparty na interposerach proces integracji systemu na poziomie wafla obsługuje szeroką gamę kostek HBM i rozmiarów opakowań.

TSMC produkuje obecnie przeważającą większość GPU, FPGA i innych wyspecjalizowanych układów zaprojektowanych w celu przyspieszania obliczeń AI. Akceleratory te wykorzystują pamięć HBM, aby zapewnić największą możliwą przepustowość do szkolenia AI i są produkowane przy użyciu techniki pakowania CoWoS. Inne firmy produkujące chipy również zapewniają podobne możliwości pakowania, ale TSMC otrzymuje największe zamówienia od najbardziej renomowanych producentów chipów, w tym NVIDII i AMD.

Według analityków branżowych zaawansowane technologie opakowaniowe, takie jak CoWoS, są kosztowne i ryzykowne finansowo we wdrażaniu. Dlatego mniejsi producenci nie są tak chętni do inwestowania ogromnych pieniędzy w tym zakresie. 

TSMC inwestuje

TSMC wydaje prawie 3 miliardy dolarów na nową fabrykę specjalizującą się w nowoczesnych technologiach pakowania, która powinna zostać uruchomiona do 2027 roku. Firma dąży do zwiększenia swoich mocy produkcyjnych „tak szybko, jak to możliwe” – potwierdził Liu inwestorom. Oczekuje się, że problem niewystarczającej produkcji przemysłowej chipów do AI ustąpi do końca przyszłego roku, a  w tym czasie liczba wafli CoWoS w 2024 r. podwoi się w porównaniu z rokiem 2023.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: TSMC ostrzega: Problemy z dostępnością GPU do szkolenia AI nie skończą się szybko

 0