Szef OpenAI, Sam Altman ogłosił, że jego firma do końca 2025 roku uruchomi ponad milion procesorów graficznych, zwiększając swoją moc obliczeniową do bezprecedensowego poziomu. W świecie, w którym konkurencyjne projekty, jak chociażby xAI Elona Muska, działają na kilkuset tysiącach jednostek obliczeniowych, planowana skala działań OpenAI wyznacza nowy punkt odniesienia.
Altman, znany z niekonwencjonalnego podejścia do rozwoju technologii, nie poprzestaje na tej liczbie. W tym samym wpisie zasugerował, że jego zespół powinien przygotować się na zwiększenie tej skali stukrotnie. Z tonu wypowiedzi można wyczytać lekkość, ale kontekst wyraźnie wskazuje, że za tym „żartem” kryje się realna ambicja. To nie pierwszy raz, gdy prezes OpenAI wyznacza cel, który z początku wydaje się abstrakcyjny, by z czasem przekształcić go w nowy standard branżowy.
Skalowanie poza granice wyobraźni
Osiągnięcie miliona procesorów graficznych nie jest jedynie kwestią logistyki czy inżynierii — to także deklaracja kierunku, w jakim zmierza infrastruktura sztucznej inteligencji. Już teraz wiadomo, że brak wystarczającej liczby układów obliczeniowych poważnie wpłynął na tempo rozwoju GPT-4.5, którego wdrażanie zostało spowolnione właśnie z powodu wyczerpanych zasobów sprzętowych. Od tamtego momentu rozbudowa infrastruktury stała się dla Altmana priorytetem.
Zamiast ograniczać się do współpracy z jednym partnerem technologicznym, OpenAI rozszerzyło swoje działania na kilku frontach. Choć Azure od Microsoftu nadal pozostaje główną platformą chmurową, równolegle rozwijana jest współpraca z Oracle. Firma nie wyklucza także wykorzystania akceleratorów TPU od Google. Na horyzoncie pojawiają się też plany budowy własnych układów scalonych, co może znacząco uniezależnić OpenAI od obecnych graczy rynkowych.
Nowa infrastruktura na skalę przemysłową
Najbardziej namacalnym symbolem tych ambicji jest rozrastające się centrum danych w Teksasie, które już teraz zużywa około 300 megawatów energii. To zapotrzebowanie odpowiada mocy wykorzystywanej przez średniej wielkości miasto. Do połowy 2026 roku obiekt ma osiągnąć poziom jednego gigawata, co stawia go w gronie największych konsumentów energii elektrycznej na świecie. Skalę wyzwań związanych z takim projektem odczuwają już operatorzy sieci energetycznych w regionie, dla których stabilizacja napięcia i częstotliwości wymaga natychmiastowych inwestycji w infrastrukturę przesyłową.
W tym kontekście wizja stu milionów procesorów graficznych, choć obecnie czysto hipotetyczna, nie wydaje się jedynie spekulacją. Według bieżących szacunków zakup takiej liczby układów kosztowałby około trzech bilionów dolarów, co odpowiada rocznemu PKB Wielkiej Brytanii. Brakuje nie tylko pieniędzy, ale także fizycznej możliwości produkcji tylu chipów w obecnych warunkach. Tym bardziej rośnie znaczenie innowacji technologicznej — nie tylko po stronie układów obliczeniowych, lecz także w zakresie energetyki, chłodzenia, i zarządzania danymi.
Wyścig po przewagę strategiczną
OpenAI nie jest jedynym graczem w tym wyścigu. Amazon, Meta czy Google również inwestują miliardy dolarów w rozwój własnych rozwiązań obliczeniowych, tworząc układy specjalnie zaprojektowane do obsługi modeli sztucznej inteligencji. Wszyscy starają się też zapewnić dostęp do najnowszej generacji pamięci HBM, bez której trenowanie coraz bardziej złożonych modeli byłoby niemożliwe. Ale to Altman, w swoim stylu, najgłośniej mówi o tym, dokąd zmierza cała branża, a jeszcze niedawno posiadanie dziesięciu tysięcy procesorów graficznych wydawało się imponującym osiągnięciem.
Technologiczna ekspansja bez końca
Czy osiągnięcie stu milionów procesorów graficznych jest możliwe w dającej się przewidzieć przyszłości? Dziś nie. Ale historia rozwoju OpenAI pokazuje, że nierealne dziś może stać się możliwe szybciej, niż wielu się wydaje. Próg miliona GPU to nie jest cel końcowy — to fundament pod coś znacznie większego. Taki poziom infrastruktury nie służy jedynie szybszemu uczeniu modeli, lecz budowaniu całego ekosystemu technologicznego, który ma stać się bazą dla przyszłych generacji sztucznej inteligencji.

Pokaż / Dodaj komentarze do: Chcą kupić 100 milionów układów graficznych. OpenAI tworzy potwora