Szef NVIDIA wyjaśnia Muska. Pomysł na kosmiczne AI jest nierealistyczny


Szef NVIDIA wyjaśnia Muska. Pomysł na kosmiczne AI jest nierealistyczny

W świecie AI szykuje się nowa debata. Tym razem nie chodzi jednak o parametry czy architekturę, lecz o fizyczne granice Ziemi.

Elon Musk przekonuje, że za kilka lat najbardziej opłacalnym miejscem do uruchamiania gigantycznych klastrów AI będzie orbita okołoziemska. Jensen Huang z NVIDII odpowiada na to z entuzjazmem, ale i dużą dawką realizmu: „To marzenie”.

Energetyczny sufit dla AI

Musk od miesięcy ostrzega, że ziemska infrastruktura nie wytrzyma ekspansji AI. Według jego szacunków w perspektywie 4-5 lat największe modele językowe i systemy AGI będą potrzebowały stałej mocy rzędu 200-300 GW. To wartość porównywalna z setkami elektrowni, podczas gdy cała amerykańska energetyka stale dostarcza dziś około 490 GW. Innymi słowy, Musk uważa, że Ziemia nie jest w stanie zasilić sztucznej inteligencji w takim tempie, w jakim rosną jej potrzeby.

Elon Musk przekonuje, że za kilka lat najbardziej opłacalnym miejscem do uruchamiania gigantycznych klastrów AI będzie orbita okołoziemska.

Dlatego jego zdaniem logicznym krokiem jest kosmos. Tam energia słoneczna jest dostępna cały czas, nie ma nocy, baterie są zbędne, a panele fotowoltaiczne mogą być lżejsze i tańsze niż na Ziemi. W próżni łatwiej też chłodzić superkomputery, bo ciepło można odprowadzać przez radiację, bez skomplikowanych systemów cieczy czy powietrza. Musk twierdzi, że kosmiczne centra danych staną się najtańszym sposobem na uruchamianie obliczeń AI w mniej niż pięć lat.

Jensen Huang, szef NVIDII

Huang: „To świetny kierunek, ale realia są inne”

Szef Zielonych nie neguje problemu. Podkreśla, że współczesne szafy obliczeniowe, takie jak racki z GV100 czy GB300, to w ogromnej większości systemy chłodzenia. W praktyce niemal cała dwutonowa konstrukcja to maszyneria walcząca z ciepłem generowanym przez GPU. Wraz ze wzrostem zapotrzebowania na moc obliczeniową rośnie więc problem odprowadzania ciepła i dostarczania energii.

Ale kiedy rozmowa schodzi na pomysł budowy kosmicznych centrów danych, Huang studzi entuzjazm. Określa tę wizję jako „marzenie”, które jest fascynujące, ale obecnie nieprzystające do realiów technologicznych.

Kosmos kusi, ale…

Na papierze orbita geostacjonarna faktycznie wygląda obiecująco. Jest tam prawie stałe nasłonecznienie, stabilna temperatura i brak ziemskich ograniczeń dotyczących sieci energetycznej. Problem polega na tym, że kosmos nie wybacza błędów. Nawet w najkorzystniejszych warunkach termicznych temperatura potrafi skakać o dziesiątki stopni. Do tego dochodzi promieniowanie, które dla współczesnych układów GPU byłoby śmiertelne. Układy klasy Blackwell czy Rubin wymagałyby ciężkiego ekranowania lub kompletnego przeprojektowania w technologii rad-hard, co zabiłoby ich wydajność.

Największym wyzwaniem jest jednak chłodzenie. Aby odprowadzić ciepło generowane przez megawatowe lub gigawatowe klastry GPU, trzeba by zbudować gigantyczne powierzchnie radiatorów, struktury liczące dziesiątki tysięcy metrów kwadratowych. Niczego podobnego nie wysłano dotąd w kosmos, a próba zrealizowania tego w perspektywie kilku lat wymagałaby tysięcy startów rakiet klasy Starship.

Do tego dochodzi problem komunikacji i serwisowania. Takie satelity musiałyby być wyposażone w systemy autonomicznych napraw, robotykę orbitalną, zaawansowaną nawigację antykolizyjną i łącza o przepustowościach liczonych w petabitach. To wszystko jest na etapie wczesnych eksperymentów, nie masowej produkcji.

Fantastyczna wizja kontra twarda inżynieria

Wizja Muska jest pociągająca (niczym jego tunel łączący Rosję z USA), bo zmusza do myślenia o ograniczeniach, o których branża AI nie lubi mówić. Rzeczywiście, Ziemia zaczyna mieć problem z dostarczaniem energii dla systemów, które rosną wykładniczo. Ale to, co dziś wygląda jak przełomowy pomysł, w praktyce wymaga jeszcze dekady, a może i dwóch, aby stać się choćby częściowo realne. Dlatego Huang, mimo że sam stoi na czele firmy napędzającej boom AI, nazywa to marzeniem, a nie realnym pomysłem. Póki co giganci technologiczni muszą zmierzyć się z bardziej przyziemnymi wyzwaniami: budową nowych elektrowni, poprawą efektywności energetycznej AI oraz projektowaniem chłodzenia, które nie kosztuje tyle, co cały serwer.

Spodobało Ci się? Podziel się ze znajomymi!

Pokaż / Dodaj komentarze do:

Szef NVIDIA wyjaśnia Muska. Pomysł na kosmiczne AI jest nierealistyczny
 0