Branża sztucznej inteligencji coraz wyraźniej przesuwa punkt ciężkości z trenowania modeli na ich codzienne wnioskowanie. Ta zmiana pociąga za sobą potrzebę przebudowy całego zaplecza technologicznego, od akceleratorów po systemy przechowywania danych. W tym kontekście coraz częściej pojawia się koncepcja wyspecjalizowanych dysków SSD zaprojektowanych specjalnie z myślą o obciążeniach AI. Jednym z najbardziej ambitnych projektów tego typu jest inicjatywa rozwijana wspólnie przez NVIDIĘ i SK hynix.
Według informacji z południowokoreańskich źródeł obie firmy prowadzą wspólne prace nad rozwiązaniem określanym roboczo jako „Storage Next”. Projekt zakłada stworzenie dysku SSD zoptymalizowanego pod kątem wnioskowania modeli sztucznej inteligencji, opartego na pamięci NAND, ale zaprojektowanego w sposób radykalnie różniący się od klasycznych nośników korporacyjnych.
Inspiracją dla tego kierunku rozwoju ma być wcześniejsza decyzja NVIDII o integracji pamięci GDDR7 z układami graficznymi Rubin CPX w celu obsługi określonych etapów przetwarzania danych. Podobna logika ma zostać zastosowana wobec pamięci masowej, która w środowiskach AI przestaje pełnić wyłącznie rolę archiwum, a zaczyna przypominać rozszerzenie pamięci operacyjnej.
Jeśli prognozy SK hynix i NVIDII się potwierdzą, pamięć masowa przestanie być biernym elementem systemu, a stanie się jednym z kluczowych komponentów decydujących o wydajności platform AI.
Wnioskowanie zmienia wymagania sprzętowe
Współczesne modele sztucznej inteligencji w fazie wnioskowania wymagają ciągłego dostępu do ogromnych zbiorów parametrów. Pamięci HBM oraz klasyczne moduły DRAM nie zawsze są w stanie zapewnić wystarczającą pojemność przy akceptowalnych kosztach. W efekcie pojawia się potrzeba pośredniej warstwy pamięci, która oferuje znacznie większą skalę, przy jednoczesnym zachowaniu bardzo niskich opóźnień i wysokiej przepustowości.
Projektowany przez SK hynix i NVIDIĘ dysk SSD AI ma pełnić właśnie taką rolę. Według zapowiedzi rozwiązanie mogłoby działać jako pseudopamięć zoptymalizowana pod kątem dostępu losowego i specyficznych wzorców odczytu charakterystycznych dla obciążeń AI.
Setki milionów operacji na sekundę
SK hynix deklaruje, że prototyp nowego nośnika ma być gotowy do końca przyszłego roku, a komercyjna wersja mogłaby trafić na rynek około 2027 roku. Najbardziej rzucającą się w oczy liczbą jest zapowiadana wydajność rzędu nawet 100 milionów operacji wejścia i wyjścia na sekundę. Taki poziom IOPS wielokrotnie przewyższa możliwości tradycyjnych dysków SSD klasy korporacyjnej stosowanych dziś w centrach danych.
Osiągnięcie takich parametrów ma być możliwe dzięki nowej architekturze kontrolerów oraz głębokiej optymalizacji warstwy NAND pod konkretne scenariusze użycia związane z AI. Równie istotnym celem projektu jest poprawa efektywności energetycznej, która w dużych klastrach obliczeniowych staje się jednym z głównych ograniczeń skalowania.
Rosnące naciski na rynek pamięci NAND
Rozwój wyspecjalizowanych dysków SSD dla sztucznej inteligencji może być jednak powstrzymany przez niestabilność łańcuchów dostaw. Już dziś producenci pamięci NAND działają mierzą się z naciskami ze strony operatorów centrów danych, firm telekomunikacyjnych oraz dostawców infrastruktury AI. Dodatkowe zapotrzebowanie na zaawansowane nośniki może jeszcze bardziej zaostrzyć konkurencję o dostępne moce produkcyjne.
Analitycy zwracają uwagę, że rynek pamięci DRAM doświadczył podobnego scenariusza w momencie gwałtownego wzrostu popularności modeli AI. Ceny kontraktowe zaczęły rosnąć w szybkim tempie, a dostępność stała się problemem strategicznym. Coraz więcej sygnałów wskazuje na to, że pamięci NAND mogą wkrótce podążyć tą samą ścieżką.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
NVIDIA i SK hynix szykują rewolucję. Takich dysków SSD jeszcze nie było