Chociaż złota era dysków HDD już minęła na rzecz nowszych i szybszych nośników, to jednak starsza technologia nadal jest wykorzystywana w branży, chociażby w centrach danych. Jest to nadal ciekawa alternatywa zwłaszcza gdy napędza ją technologia AI Data Cycle.
Obecnie większość osób w komputerach stacjonarnych, laptopach czy konsolach korzysta z dysków półprzewodnikowych (SSD) oraz pamięci flash, jednak nośniki HDD nie powiedziały jeszcze ostatniego słowa. Pozostają istotnym elementem działalności centrów gromadzących dużo danych.
Według raportu IDC Global StorageSphere 2024, do 2028 roku dyski twarde będą nadal stanowić prawie 80% pamięci masowej wykorzystywanej w hiperskalowych i chmurowych centrach danych.
„Większość danych, z którymi mamy styczność na co dzień, przechowywana jest na jakimś dysku twardym, wykorzystywanym w centrum danych” – wyjaśnia Brad Warbiany, dyrektor ds. marketingu technicznego dysków twardych w Western Digital. „Niezależnie od tego, czy jest to zdjęcie, film czy post w mediach społecznościowych – nie wszyscy to sobie uświadamiają, ale większość tych danych zapisana jest na HDD”.
I wygląda na to, że sytuacja długo jeszcze się nie zmieni - według raportu IDC Global StorageSphere 2024, do 2028 roku dyski twarde będą nadal stanowić prawie 80% pamięci masowej wykorzystywanej w hiperskalowych oraz chmurowych centrach danych.
W centrach danych scenariusz użytkowania urządzeń storage wygląda zwykle tak, że często używane lub krytyczne pod względem wydajności, tzw. „gorące” dane, są przechowywane na dyskach SSD klasy korporacyjnej (co zapewnia błyskawiczny dostęp do nich), zaś rzadziej używane „ciepłe” lub „zimne” dane znajdują się na bardziej atrakcyjnych kosztowo nośnikach HDD.
To wielopoziomowe podejście pomaga zoptymalizować koszty przechowywania i dostępu do danych i może być precyzyjnie dostrojone w zależności od pojemności, wydajności, dostępności i potrzeby odzyskiwania danych systemu lub aplikacji.
Oszczędności na dużą skalę
Kwestia opłacalności jest kluczowym czynnikiem przy dużej skali. Choć koszt pamięci flash w przeliczeniu na terabajt jest dziś znacznie bardziej atrakcyjny niż jeszcze kilka lat temu, dyski SSD klasy korporacyjnej nadal kosztują do ośmiu razy więcej za terabajt niż dyski HDD podobnej klasy.
Co więcej – z raportu IDC Global StorageSphere Forecast, 2024-2028 wynika, że sytuacja ta nie zmieni się zasadniczo przez najbliższych kilka lat.
Jednym ze sposobów optymalizacji pojemności i wydajności energetycznej w centrum danych jest zapisanie jak większej ilości danych na pojedynczym dysku twardym – z wykorzystaniem technologii takich jak OptiNAND oraz UltraSMR.
Technologie te, wraz z inteligentnymi architekturami danych, pomagają także centrom operować w sposób bardziej przyjazny dla klimatu – poprzez optymalizację zapotrzebowania na energię.
AI Data Cycle bazuje na HDD i SSD
Nowe aplikacje i scenariusze użycia oparte na danych wciąż generują ogromny wzrost ilości danych. Sztuczna inteligencja i uczenie maszynowe (ML) wymagają szczególnie dużej ilości danych – jako że opierają się one na ogromnych zbiorach informacji, które muszą zostać zebrane i wstępnie przetworzone, zanim zostaną wprowadzone do algorytmów.
Oczywiste zatem jest, że dyski twarde odgrywają dużą rolę w cyklu życia pamięci masowej AI, a także w całej fazie pozyskiwania danych, ze względu na ogromne zbiory danych, często surowych i nie przetworzonych.
Wszystkie one są i będą przechowywane na dyskach twardych. To kwestia ekonomii – kosztów miejsca przechowywania danych i sposobu uzyskiwania do nich dostępu.
Pokaż / Dodaj komentarze do: Sztuka balansowania: dyski HDD i SSD w procesie przechowywania danych