Rozwój sztucznej inteligencji, choć spektakularny, niesie za sobą coraz większe koszty i nie chodzi tylko o dolary czy dostępność chipów. Najnowsze badania sugerują, że już pod koniec 2025 roku globalne zużycie energii przez systemy AI może przewyższyć słynnie energochłonne kopanie Bitcoina. To cichy, ale gwałtowny zwrot, który może radykalnie wpłynąć na sieci energetyczne i politykę klimatyczną wielu państw.
Wzrost popularności generatywnej AI, od chatbotów po zaawansowane modele predykcyjne, wywołał prawdziwy boom w budowie centrów danych oraz produkcji specjalistycznego sprzętu. Układy przyspieszające obliczenia, takie jak NVIDIA H100 czy AMD Instinct, stały się podstawą nowoczesnej infrastruktury. W efekcie, według szacunków, już w 2025 roku systemy AI będą zużywać niemal połowę energii konsumowanej przez wszystkie centra danych, w porównaniu do około 20% dzisiaj.
Najnowsze badania sugerują, że już pod koniec 2025 roku globalne zużycie energii przez systemy AI może przewyższyć słynnie energochłonne kopanie Bitcoina.
Prąd za miliardy
Badanie opublikowane w czasopiśmie Joule przez Alexa de Vries-Gao, doktoranta Vrije Universiteit w Amsterdamie, pokazuje skalę zjawiska. Przy pomocy analiz specyfikacji technicznych, danych z łańcuchów dostaw oraz raportów finansowych firm technologicznych, autor oszacował, że sprzęt AI wyprodukowany tylko w latach 2023–2024 może zużywać od 5,3 do 9,4 GW mocy, co przekracza całkowite zużycie energii elektrycznej w Irlandii.
A to dopiero początek. Wraz z planowanym ponownym podwojeniem mocy produkcyjnej technologii CoWoS w TSMC (kluczowej dla pakowania nowoczesnych układów AI) zapotrzebowanie na energię może wzrosnąć do 23 GW do końca 2025 roku, co odpowiada średniemu krajowemu zużyciu prądu w Wielkiej Brytanii.
Więcej sprzętu, większe modele, większe problemy
Choć firmy technologiczne chętnie chwalą się zwiększoną efektywnością energetyczną swoich centrów danych i inwestycjami w odnawialne źródła energii, to ich wysiłki nie nadążają za tempem wzrostu. Presja na tworzenie coraz większych modeli AI skutkuje coraz bardziej energochłonnym sprzętem. Mimo że pojedyncze serwery są coraz wydajniejsze, całościowe zużycie energii i tak rośnie.
Nie pomagają też problemy z produkcją, a najnowsze rozwiązania, takie jak CoWoS-L od TSMC, są trudne w masowej produkcji i cierpią na niski uzysk. Tymczasem Google już otwarcie mówi o „kryzysach mocy”, a niektóre projekty infrastrukturalne pozyskują gigawaty mocy z elektrowni gazowych tylko dla potrzeb AI.
Cień nad celami klimatycznymi
Wielkie pytanie brzmi: skąd będzie pochodzić energia dla AI? Bo to, gdzie działa dana farma serwerowa, ma ogromne znaczenie dla emisji CO₂. Serwerownia w Wirginii Zachodniej, oparta głównie na węglu, może emitować nawet dwa razy więcej CO₂ niż jej odpowiednik w Kalifornii, gdzie dominują źródła odnawialne.
Tymczasem firmy technologiczne rzadko ujawniają, gdzie i jak pracują ich systemy AI. Ten brak przejrzystości stanowi realne zagrożenie dla globalnych celów klimatycznych, ponieważ utrudnia ocenę rzeczywistego wpływu branży na środowisko, zarówno opinii publicznej, jak i decydentom politycznym.

Pokaż / Dodaj komentarze do: Kryzys energetyczny coraz bliżej. AI wkrótce będzie zużywać więcej prądu niż kopacze kryptowalut