Silniki odrzutowe zasilą ChatGPT. AI zjada za dużo prądu
Źródło: Link
Źródło: Link
118 lekcji bez kodowania. ChatGPT, Claude, Gemini, automatyzacje. Notatnik AI i AI Coach w cenie.
Centra danych mają problem. Nie z algorytmami. Nie z chipami.
Z prądem.
AI pożera energię w tempie, którego nikt nie przewidział. Tradycyjne źródła zasilania po prostu nie wyrabiają. Rozwiązanie? Turbiny gazowe — te same, które pchają Boeingi przez niebo.
Już się dzieje.
ChatGPT, Gemini, Claude — te narzędzia działają na gigantycznych centrach danych. Każde zapytanie, każda odpowiedź to setki tysięcy obliczeń.
Token — czyli mniej więcej 3/4 słowa — wymaga mocy obliczeniowej. Mnóż to przez miliony użytkowników dziennie i masz problem na rękach.
Jedno duże centrum danych zużywa tyle energii, co 50 tysięcy gospodarstw domowych. Rocznie.
I narasta to z każdym miesiącem. Modele stają się większe, bardziej zaawansowane. GPT-5 to miliardy parametrów. Kolejne wersje będą jeszcze większe. Więcej mocy. Więcej prądu.
Tradycyjne sieci budowano z myślą o przewidywalnym zapotrzebowaniu. Fabryka zużywa X megawatów, osiedle Y megawatów. Da się zaplanować.
Centra danych AI zmieniły zasady.
Zapotrzebowanie skacze w ciągu minut. Nowy model wchodzi do treningu — skok o 30%. Milion użytkowników odpala ChatGPT o tej samej porze — kolejny skok. Infrastruktura nie nadąża.
I tu wkracza pomysł, który przypomina żart.
Silniki odrzutowe.
Turbiny gazowe to technologia znana od dekad. Spalają gaz ziemny, napędzają generator, produkują prąd. Szybko, wydajnie, na żądanie.
Lotnictwo używa ich od lat. Teraz przemysł technologiczny odkrywa ich potencjał.
Dlaczego akurat one?
Szybki start. Tradycyjna elektrownia potrzebuje godzin, żeby wejść na pełne obroty. Turbina gazowa? Minuty. Centrum danych potrzebuje nagle więcej mocy? Turbina odpala się natychmiast.
Skalowalność. Potrzebujesz więcej energii? Dodajesz kolejną turbinę. Mniej? Wyłączasz jedną. Elastyczność, której brakuje tradycyjnym źródłom.
Niezależność. Centrum danych nie musi czekać, aż lokalna sieć energetyczna się rozbuduje. Instaluje własne turbiny i ma problem z głowy.
Turbiny gazowe spalają paliwa kopalne. Emitują CO2. Na papierze — krok wstecz.
Rzeczywistość jest bardziej złożona.
Wiele firm technologicznych inwestuje w turbiny zasilane biogazem lub wodorem. To wciąż spalanie, ale bilans węglowy wygląda inaczej. Biogaz powstaje z odpadów organicznych — emisja CO2 jest częściowo neutralna. Wodór? Zero emisji, jeśli powstał z odnawialnych źródeł.
Druga sprawa: efektywność. Nowoczesne turbiny gazowe osiągają sprawność na poziomie 60-65%. To więcej niż wiele elektrowni węglowych czy nawet niektóre odnawialne źródła — z uwzględnieniem strat przesyłu.
Trzecia kwestia: czas. Odnawialne źródła energii to przyszłość, jasne. Ale ich budowa zajmuje lata. Farmy wiatrowe, panele słoneczne, infrastruktura przesyłowa — to wszystko wymaga czasu.
Centra danych potrzebują prądu teraz.
Turbiny gazowe to rozwiązanie pomostowe. Nie idealne — funkcjonalne.
Microsoft testuje turbiny gazowe w swoich centrach danych. Google eksperymentuje z hybrydowymi systemami zasilania. Amazon Web Services inwestuje w niezależne źródła energii dla swoich farm serwerów.
To nie są pojedyncze projekty pilotażowe.
To strategia na najbliższe lata.
Firmy technologiczne wiedzą, że energetyka to ich nowy front walki. Nie wystarczy mieć najlepsze chipy — trzeba mieć prąd, żeby je zasilić.
I turbiny gazowe, te same które pchają Boeingi przez niebo, stają się częścią infrastruktury AI.
Prawdopodobnie nic. ChatGPT będzie działał tak samo szybko. Gemini odpowie na Twoje pytanie w tej samej sekundzie.
Ale w tle toczy się bitwa o energię, która zadecyduje o przyszłości AI.
Jeśli centra danych nie dostaną wystarczająco dużo prądu, rozwój AI zwolni. Nowe modele będą droższe w utrzymaniu. Dostęp może stać się bardziej ograniczony.
Turbiny gazowe to sposób, żeby ten scenariusz nie stał się rzeczywistością.
To też sygnał, jak szybko AI rośnie. Tak szybko, że przemysł sięga po rozwiązania z zupełnie innych branż — lotnictwa, energetyki przemysłowej, nawet wojskowości.
Zależy, jak patrzeć.
Z jednej strony: silniki odrzutowe zasilające ChatGPT brzmią absurdalnie. To znak, że coś wymknęło się spod kontroli. Że AI rośnie szybciej, niż infrastruktura potrafi nadążyć.
Z drugiej strony — to pragmatyzm. Przemysł technologiczny widzi problem i szuka rozwiązania. Nie czeka, aż ktoś inny go rozwiąże. Instaluje turbiny, testuje wodór, inwestuje w sieci energetyczne.
Przesada? Może.
Ale też jedyna droga, żeby AI nie stanęło w miejscu.
Bo jedno jest pewne: zapotrzebowanie na energię będzie tylko rosło. Modele językowe stają się większe. Generatory obrazów i wideo — bardziej zaawansowane. Każdy skok w możliwościach AI to skok w zużyciu prądu.
Pytanie nie brzmi "czy to przesada?", ale "co dalej?".
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar