Wyższe transfery i niższe zużycie energii. NVIDIA wraca do porzuconej technologii


Wyższe transfery i niższe zużycie energii. NVIDIA wraca do porzuconej technologii

 

Organizacja JEDEC, odpowiedzialna za tworzenie globalnych norm dla półprzewodników, ogłosiła, że standard pamięci SOCAMM2 jest już na ostatniej prostej do finalizacji. Ten stanowić ma podstawę dla pamięci dla serwerów AI i centrów danych, przynosząc istotne ulepszenia względem pierwotnej specyfikacji SOCAMM.

SOCAMM2, podobnie jak jego poprzednik, wykorzystuje pamięć LPDDR5X, ale wprowadza dwie kluczowe zmiany, które mają zrewolucjonizować jej zastosowanie w serwerach. Pierwsza to profil SPD (JEDEC profile), czyli standardowy zestaw parametrów konfiguracyjnych, który ułatwia integrację i optymalizację pamięci w różnych systemach. Druga to wyższe prędkości transferu, nawet do 9600 MT/s, co oznacza wzrost wydajności względem wcześniejszej generacji SOCAMM, która osiągała maksymalnie 8533 MT/s.

SOCAMM2 wprowadza dwie kluczowe zmiany względem poprzednika.

Nowa technologia ma znaleźć zastosowanie przede wszystkim w serwerach AI nowej generacji, które wymagają olbrzymiej przepustowości pamięci przy jednoczesnym ograniczeniu zużycia energii i emisji ciepła.

NVIDIA, Rubin i historia technicznych potknięć

Według branżowych doniesień, NVIDIA planuje wykorzystać SOCAMM2 w połączeniu z procesorami Vera w swojej nadchodzącej platformie Rubin, która ma zastąpić obecną architekturę Blackwell. To nie będzie jednak pierwsze podejście firmy do tego typu pamięci. Zielona ekipa próbowała już wdrożyć SOCAMM w serwerach Blackwell Ultra GB300 "Cordelia", lecz projekt został porzucony. Głównym problemem okazało się przegrzewanie modułów, które nie mieściły się w dopuszczalnych limitach termicznych. Ostatecznie „Cordelia” trafiła na rynek z bardziej tradycyjnym rozwiązaniem LPDDR.

SOCAMM2 ma rozwiązać te problemy, między innymi dzięki współpracy z JEDEC oraz partnerami takimi jak SK hynix, Samsung i Micron, którzy będą odpowiedzialni za pierwsze wersje produkcyjne modułów.

Czym właściwie jest SOCAMM?

SOCAMM (System On CAMM) to kompaktowy format pamięci DRAM stworzony z myślą o serwerach i centrach danych obsługujących sztuczną inteligencję. W przeciwieństwie do klasycznych modułów RDIMM, SOCAMM zajmuje znacznie mniej miejsca i zużywa nawet o 66% mniej energii. Przykładowo, moduł SOCAMM 128 GB od Microna ma wymiary zaledwie 14 × 90 mm, zawiera cztery 16-warstwowe stosy pamięci LPDDR5 i zużywa jedną trzecią mocy klasycznego RDIMM o tej samej pojemności.

Dzięki temu, że SOCAMM opiera się na technologii CAMM2 (Compression Attached Memory Module), możliwe jest zwiększenie gęstości pamięci na jednostkę powierzchni, co ma kluczowe znaczenie w środowiskach serwerowych i AI, gdzie liczy się każdy wat i każdy centymetr przestrzeni.

SOCAMM2 to otwarty standard, nie tylko dla NVIDII

Pierwsze moduły SOCAMM były rozwiązaniem proprietary, zaprojektowanym wyłącznie dla sprzętu NVIDII. Wersja SOCAMM2, opracowywana wspólnie z JEDEC, ma być natomiast otwartym standardem, co pozwoli na jej wdrożenie przez innych producentów serwerów i procesorów. Oznacza to, że w przyszłości SOCAMM2 może stać się uniwersalnym standardem pamięci w serwerach AI, podobnie jak DIMM w tradycyjnych komputerach.

Kiedy premiera?

Choć JEDEC nie podał jeszcze oficjalnej daty publikacji finalnej specyfikacji, zakończenie prac nad projektem spodziewane jest w najbliższych miesiącach. To da producentom, takim jak SK hynix, Samsung i Micron, czas na uruchomienie produkcji, a NVIDII na testy w ramach platform Rubin, planowanych na 2026 rok.

Spodobało Ci się? Podziel się ze znajomymi!

Pokaż / Dodaj komentarze do:

Wyższe transfery i niższe zużycie energii. NVIDIA wraca do porzuconej technologii
 0
Kolejny proponowany artykuł z kategorii
Kolejny proponowany artykuł z kategorii
Kolejny proponowany artykuł z kategorii
Kolejny proponowany artykuł z kategorii