OpenAI montuje silniki z Boeinga 747 w centrach danych
Źródło: Link
Źródło: Link
90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.
Blake Scholl, szef Boom Supersonic, miał prosty plan: najpierw zbudować naddźwiękowy samolot przyszłości, potem – za kilka lat – wykorzystać jego silniki do produkcji energii. Trzy lata temu to brzmiało logicznie.
Potem zadzwonił telefon.
Ktoś z branży AI zapytał, czy mogą kupić te silniki teraz. Nie za dekadę. Teraz. Bo centra danych, w których trenuje się modele językowe, mają problem. Nie z mocą obliczeniową. Z gniazdkami.
Kiedy mówisz "centrum danych AI", halę wielkości kilku boisk piłkarskich. W środku – tysiące serwerów pracujących non-stop. Każdy chip graficzny (GPU) to jak mały piec: generuje ciepło i żre energię.
OpenAI, Google, Meta – wszyscy budują takie farmy. Problem? Lokalna sieć energetyczna nie nadąża. Możesz mieć najlepsze serwery na świecie, ale jeśli nie ma skąd wziąć prądu, stoją i zbierają kurz.
To jak kupić Ferrari i zorientować się, że w Twojej okolicy nie ma stacji benzynowych.
I tu wchodzi Blake Scholl ze swoimi silnikami. Boom Supersonic projektuje silniki do samolotów naddźwiękowych – maszyn, które muszą generować ogromną moc w małej przestrzeni. Takie turbiny to w zasadzie wielkie generatory energii.
Ktoś w OpenAI (lub podobnej firmie – szczegóły nie zostały ujawnione) wpadł na pomysł: a gdyby tak wziąć silnik odrzutowy, podłączyć go do generatora i postawić obok centrum danych?
Efekt? Własna elektrownia. Niezależna od lokalnej sieci. Można ją uruchomić tam, gdzie infrastruktura energetyczna kuleje.
To już dzieje się naprawdę.
Może się zastanawiasz: "Przecież to tylko programy, które piszą teksty. Ile prądu może zużywać ChatGPT?"
Sporo. Bardzo sporo.
Trenowanie dużego modelu językowego (LLM – Large Language Model, czyli "mózg" ChatGPT) to proces, który trwa tygodnie lub miesiące. Tysiące procesorów analizuje petabajty danych (petabajt to milion gigabajtów). Każda operacja wymaga energii. Każdy chip się grzeje.
Dla porównania: jedno zapytanie do ChatGPT zużywa tyle energii, co kilka wyszukiwań w Google. Pomnóż to przez miliony użytkowników dziennie. Potem dodaj trenowanie nowych wersji modeli. I jeszcze testy, eksperymenty, backup...
Wynik? Farma serwerów AI może zużywać tyle prądu co 50-100 tysięcy domów.
OpenAI to tylko przykład. Google buduje centra danych dla swoich modeli Gemini. Meta dla Llamy. Anthropic dla Claude'a. Microsoft dla wszystkiego, co robi z OpenAI.
Wszyscy mają ten sam problem: sieci energetyczne w USA, Europie i Azji nie były projektowane z myślą o takim skoku zapotrzebowania. Elektrownie istnieją, ale przesył kuleje. Albo lokalne przepisy nie pozwalają na podłączenie tak dużego odbiorcy.
Efekt? Firmy technologiczne stają się… firmami energetycznymi.
Google inwestuje w farmy wiatrowe. Amazon kupuje elektrownie jądrowe. A OpenAI (prawdopodobnie) montuje turbiny z odrzutowców.
Dwa scenariusze.
Scenariusz 1: Wyścig zbroje energetycznych. Firmy, które mają dostęp do taniej, niezawodnej energii, wygrywają. Reszta zostaje w tyle. To może oznaczać konsolidację rynku – tylko giganci przetrwają.
Scenariusz 2: Przełom w efektywności. Presja na energię zmusza inżynierów do optymalizacji. Modele stają się mniejsze, szybsze, bardziej wydajne. Paradoksalnie – kryzys energetyczny może przyspieszyć innowacje.
Prawda pewnie leży gdzieś pośrodku.
Tu robi się niewygodnie.
Silniki odrzutowe spalają paliwo. To nie jest czysta energia. Owszem, firmy mówią o "przejściowym rozwiązaniu" i "inwestycjach w odnawialne źródła". Ale dziś, teraz, w 2025 roku – AI napędzane jest w dużej mierze paliwami kopalnymi.
Ironia? Modele AI mają pomagać w walce ze zmianami klimatu. Analizować dane meteorologiczne, optymalizować zużycie energii, projektować lepsze panele słoneczne.
Ale żeby to robić, same zużywają tyle prądu, że firmy montują turbiny z Boeingów.
To nie jest hipogryzja – to po prostu etap przejściowy. Pytanie brzmi: jak długo potrwa?
Zależy, kogo pytasz.
Jeśli jesteś przedsiębiorcą, który dzięki AI automatyzuje procesy i oszczędza miliony – tak, ma sens.
Jeśli jesteś inżynierem, który widzi, jak modele stają się coraz potężniejsze – tak, ma sens.
Jeśli jesteś osobą, która martwi się o planetę i zastanawia, czy naprawdę potrzebujemy chatbota generującego memey za cenę emisji CO2 – no cóż, to skomplikowane.
Prawda jest taka: AI nikogo nie pyta o zgodę. Rozwija się, bo jest na to popyt. Firmy inwestują miliardy, bo widzą zwrot. A energia? To tylko kolejny problem do rozwiązania.
I najwyraźniej rozwiązanie brzmi: "Weźmy silnik z Boeinga 747".
Blake Scholl zmienił kolejność priorytetów. Zamiast czekać na samoloty naddźwiękowe, jego firma teraz projektuje turbiny dla centrów danych. To pokazuje, jak szybko zmienia się krajobraz technologiczny.
Za kilka lat może okaże się, że największym klientem przemysłu lotniczego nie są linie lotnicze. Tylko OpenAI, Google i Meta.
A może – optymistyczny scenariusz – za kilka lat modele AI będą na tyle wydajne, że zmieszczą się na Twoim telefonie i będą działać na baterii słonecznej.
Czas pokaże. Na razie mamy turbiny z odrzutowców w halach serwerowych.
I to mówi o AI w 2025 roku więcej niż tysiąc prezentacji o "rewolucji technologicznej".
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar