Organizacja JEDEC, odpowiedzialna za tworzenie globalnych norm dla półprzewodników, ogłosiła, że standard pamięci SOCAMM2 jest już na ostatniej prostej do finalizacji. Ten stanowić ma podstawę dla pamięci dla serwerów AI i centrów danych, przynosząc istotne ulepszenia względem pierwotnej specyfikacji SOCAMM.
SOCAMM2, podobnie jak jego poprzednik, wykorzystuje pamięć LPDDR5X, ale wprowadza dwie kluczowe zmiany, które mają zrewolucjonizować jej zastosowanie w serwerach. Pierwsza to profil SPD (JEDEC profile), czyli standardowy zestaw parametrów konfiguracyjnych, który ułatwia integrację i optymalizację pamięci w różnych systemach. Druga to wyższe prędkości transferu, nawet do 9600 MT/s, co oznacza wzrost wydajności względem wcześniejszej generacji SOCAMM, która osiągała maksymalnie 8533 MT/s.
SOCAMM2 wprowadza dwie kluczowe zmiany względem poprzednika.
Nowa technologia ma znaleźć zastosowanie przede wszystkim w serwerach AI nowej generacji, które wymagają olbrzymiej przepustowości pamięci przy jednoczesnym ograniczeniu zużycia energii i emisji ciepła.
NVIDIA, Rubin i historia technicznych potknięć
Według branżowych doniesień, NVIDIA planuje wykorzystać SOCAMM2 w połączeniu z procesorami Vera w swojej nadchodzącej platformie Rubin, która ma zastąpić obecną architekturę Blackwell. To nie będzie jednak pierwsze podejście firmy do tego typu pamięci. Zielona ekipa próbowała już wdrożyć SOCAMM w serwerach Blackwell Ultra GB300 "Cordelia", lecz projekt został porzucony. Głównym problemem okazało się przegrzewanie modułów, które nie mieściły się w dopuszczalnych limitach termicznych. Ostatecznie „Cordelia” trafiła na rynek z bardziej tradycyjnym rozwiązaniem LPDDR.
SOCAMM2 ma rozwiązać te problemy, między innymi dzięki współpracy z JEDEC oraz partnerami takimi jak SK hynix, Samsung i Micron, którzy będą odpowiedzialni za pierwsze wersje produkcyjne modułów.
Czym właściwie jest SOCAMM?
SOCAMM (System On CAMM) to kompaktowy format pamięci DRAM stworzony z myślą o serwerach i centrach danych obsługujących sztuczną inteligencję. W przeciwieństwie do klasycznych modułów RDIMM, SOCAMM zajmuje znacznie mniej miejsca i zużywa nawet o 66% mniej energii. Przykładowo, moduł SOCAMM 128 GB od Microna ma wymiary zaledwie 14 × 90 mm, zawiera cztery 16-warstwowe stosy pamięci LPDDR5 i zużywa jedną trzecią mocy klasycznego RDIMM o tej samej pojemności.
Dzięki temu, że SOCAMM opiera się na technologii CAMM2 (Compression Attached Memory Module), możliwe jest zwiększenie gęstości pamięci na jednostkę powierzchni, co ma kluczowe znaczenie w środowiskach serwerowych i AI, gdzie liczy się każdy wat i każdy centymetr przestrzeni.
SOCAMM2 to otwarty standard, nie tylko dla NVIDII
Pierwsze moduły SOCAMM były rozwiązaniem proprietary, zaprojektowanym wyłącznie dla sprzętu NVIDII. Wersja SOCAMM2, opracowywana wspólnie z JEDEC, ma być natomiast otwartym standardem, co pozwoli na jej wdrożenie przez innych producentów serwerów i procesorów. Oznacza to, że w przyszłości SOCAMM2 może stać się uniwersalnym standardem pamięci w serwerach AI, podobnie jak DIMM w tradycyjnych komputerach.
Kiedy premiera?
Choć JEDEC nie podał jeszcze oficjalnej daty publikacji finalnej specyfikacji, zakończenie prac nad projektem spodziewane jest w najbliższych miesiącach. To da producentom, takim jak SK hynix, Samsung i Micron, czas na uruchomienie produkcji, a NVIDII na testy w ramach platform Rubin, planowanych na 2026 rok.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
Wyższe transfery i niższe zużycie energii. NVIDIA wraca do porzuconej technologii