NVIDIA rozważa pamięci HBM3E w swoich przyszłych GPU

NVIDIA rozważa pamięci HBM3E w swoich przyszłych GPU

SK Hynix podobno otrzymało od NVIDII prośbę o dostarczenie próbki pamięci DRAM HBM3E nowej generacji w celu przetestowania jej w przyszłych układach graficznych przeznaczonych dla segmentów sztucznej inteligencji i HPC.

W zeszłym miesiącu firma SK Hynix ogłosiła wprowadzenie piątej generacji pamięci HBM (High-Bandwidth Memory), znanych jako HBM3E, które oferować mają szybszy transfer danych. HBM3E będzie oferować szybkość transferu 8,0 Gb/s i sample tych kości mają być rozsyłane w drugiej połowie tego roku, a masowa produkcja rozpocznie się w pierwszej połowie 2024 roku. Wydaje się więc idealnym wyborem dla przyszłych procesorów graficznych NVIDII przeznaczonych dla segmentu sztucznej inteligencji i HPC.

Według Business Korea i DigiTimes, NVIDIA poprosiła o próbki pamięci HBM3E od SK Hynix. Oba podmioty nawiązały już współpracę w zakresie pamięci HBM3 i HBM2E. Obecna generacja GPU Hopper, które są również najszybszymi procesorami graficznymi dostępnymi w segmencie sztucznej inteligencji, obsługuje pamięć HBM3 i pojemność do 80 GB, a wariant 120 GB ma zostać wprowadzony na rynek jeszcze w tym roku.

Według Business Korea i DigiTimes, NVIDIA poprosiła o próbki pamięci HBM3E od SK Hynix.

HBM3

Obecne stosy HBM3 działają również z efektywną szybkością zegara do 3,2 Gb/s, więc stos osiągający 8,0 Gb/s zapewni przepustowość do 5,12 TB/s na tym samym 5120-bitowym interfejsie magistrali, który oferuje Hopper. Oznacza to 2,5-krotne zwiększenie przepustowości pamięci. Obecne pamięci DRAM HBM3 są dostępne w stosach 12-Hi, które pozwalają na pojemności do 24 GB z szybkością do 6,4 Gb/s.

Maksymalny potencjał HBM3 DRAM nie został więc jeszcze wykorzystany, ale NVIDIA może całkowicie pominąć wariant 12-Hi na rzecz HBM3E dla procesorów graficznych Hopper-Next, które mają nosić nazwę kodową „Blackwell”. Umowa SK Hynix z NVIDIĄ jest niezwykle lukratywna dla koreańskiej firmy, ponieważ zielony zespół jest liderem w segmencie HPC i sztucznej inteligencji, kontrolując ok. 90% udziałów na rynku. Jeśli dostawy HBM3 staną się problemem, NVIDIA może skierować się do Samsunga, który również przygotowuje własną pamięć Snowbolt HBM3P, która oferowałaby przepustowość do 5 TB/s na stos.

Tymczasem Intel i AMD będą walczyć z zielonym gigantem za pomocą własnych nadchodzących procesorów graficznych Falcon Shores i Instinct MI300X, ale nie da się ukryć, że Niebiescy i Czerwoni mają spore zaległości w tym segmencie. 

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: NVIDIA rozważa pamięci HBM3E w swoich przyszłych GPU

 0