Podczas tegorocznej konferencji GTC 2025 w San Jose, Jensen Huang – CEO firmy NVIDIA – oficjalnie zapowiedział Blackwell Ultra B300, najnowszy procesor graficzny dla centrów danych, który ma wynieść sztuczną inteligencję na jeszcze wyższy poziom. Nowa jednostka oferuje o 50% więcej pamięci HBM3e oraz o 50% większą moc obliczeniową FP4 w porównaniu do obecnych modeli Blackwell B200.
Hasłem przewodnim prezentacji była „era rozumowania”, co według NVIDII odnosi się do nowej generacji modeli językowych, takich jak DeepSeek R1, które potrafią nie tylko przetwarzać ogromne zbiory danych, ale również wykonywać bardziej zaawansowane operacje, wymagające logicznego wnioskowania i podejmowania decyzji.
Podczas tegorocznej konferencji GTC 2025 Jensen Huang oficjalnie zapowiedział Blackwell Ultra B300, najnowszy procesor graficzny dla centrów danych.
Nie tylko jeden układ – cała platforma AI
Blackwell Ultra B300 to nie tylko pojedynczy układ GPU, ale również kompletna platforma sprzętowa i programowa. NVIDIA zapowiedziała szereg nowych systemów bazujących na architekturze B300:
- B300 NVL16 – nowy serwerowy system rackowy.
- GB300 DGX Station – stacja robocza dla specjalistów AI.
- GB300 NV72L – pełny rack serwerowy, który stanie się podstawą nowego DGX SuperPOD.
W konfiguracji DGX SuperPOD znajdziemy aż 288 procesorów Grace CPU oraz 576 GPU Blackwell Ultra B300, wspieranych przez 300 TB pamięci HBM3e. Całość osiąga imponujące 11,5 ExaFLOPS mocy obliczeniowej FP4. Te potężne systemy mają służyć jako „fabryki AI”, zdolne do trenowania i wdrażania najbardziej wymagających modeli sztucznej inteligencji na świecie.
Czym różni się Blackwell Ultra B300 od poprzedników?
Nowe układy Blackwell Ultra (GB300 i B300) to zupełnie inne chipy niż wcześniejsze GB200/B200. Są one zaprojektowane z myślą o skalowalności i wydajności podczas inferencji w czasie rzeczywistym, zapewniając 1,5-krotnie większą wydajność FP4.
Wszystko wskazuje na to, że B300 to większy fizycznie układ, wyposażony w więcej rdzeni Tensor Core, co umożliwia przetwarzanie jeszcze większych modeli AI. Pamięć HBM3e została zwiększona aż o 50%, co pozwoli pomieścić bardziej złożone modele o większej liczbie parametrów.
Przykłady wydajności Blackwell Ultra B300
NVIDIA podała, że B300 NV72L może zapewnić 30-krotnie wyższą wydajność inferencji w porównaniu do systemów Hopper w podobnej konfiguracji. Ten wzrost wynika z ulepszeń w wielu obszarach: szybszy NVLink, większa przepustowość pamięci, więcej jednostek obliczeniowych i wsparcie dla FP4.
Dla przykładu model DeepSeek R1-671B generuje do 1000 tokenów na sekundę na B300, podczas gdy Hopper osiąga jedynie 100 tokenów na sekundę. Oznacza to 10-krotny wzrost przepustowości, co skraca czas odpowiedzi z 1,5 minuty do zaledwie 10 sekund.
Kiedy B300 trafi na rynek?
NVIDIA zapowiada, że rozpocznie wysyłkę produktów z serii Blackwell Ultra B300 w drugiej połowie 2025 roku. Firma przewiduje znaczne zwiększenie przychodów z tej generacji układów. W ubiegłym roku NVIDIA zarobiła 11 miliardów dolarów na sprzedaży Blackwell B200/B100, a B300 ma te wyniki jeszcze znacząco poprawić.

Pokaż / Dodaj komentarze do: NVIDIA ogłasza Blackwell Ultra B300 — 1,5 razy szybszy niż B200