Modele AI
Modele AI · 4 min czytania · 26 grudnia 2025

Jedno pytanie do ChatGPT = żarówka przez dobę? Sprawdzam mit

Jedno pytanie do ChatGPT = żarówka przez dobę? Sprawdzam mit

Źródło: Link

Kurs AI Evolution — od zera do eksperta

118 lekcji bez kodowania. ChatGPT, Claude, Gemini, automatyzacje. Notatnik AI i AI Coach w cenie.

Zacznij od zera →

Powiązane tematy

Francuska telewizja właśnie podała szokujący fakt: jedno pytanie do ChatGPT zużywa tyle energii, co żarówka LED świecąca przez całą dobę. Informacja obiega media. Ludzie patrzą na swoje czaty z AI z nowym niepokojem.

Problem w tym, że to twierdzenie wymaga weryfikacji.

Skąd się wziął ten mit

W programie "C à vous" padło stwierdzenie, które natychmiast stało się viralem. Proste, obrazowe, łatwe do zapamiętania. Żarówka przez dobę – każdy wie, co to znaczy.

Numerama postanowiła sprawdzić fakty. I tu zaczyna się ciekawiej.

Ile energii naprawdę zużywa ChatGPT

Zacznijmy od podstaw. ChatGPT to LLM (Large Language Model – czyli "mózg" AI oparty na miliardach parametrów). Działa na serwerach OpenAI. Każde zapytanie przechodzi przez potężne procesory GPU.

Badania wskazują na około 0,3-0,5 Wh (watogodzin) na jedno zapytanie. To średnia dla standardowego pytania – nie za krótkiego, nie za długiego.

Żarówka LED 10W świecąca przez 24 godziny? To 240 Wh.

Różnica? Prawie 500-krotna.

Skąd zamieszanie z liczbami

Autorzy twierdzenia prawdopodobnie pomieszali dwie rzeczy: energię potrzebną do pojedynczego zapytania z energią całej infrastruktury AI.

Bo tak – centra danych OpenAI zużywają ogromne ilości prądu. Ale to nie to samo, co energia przypadająca na Twoje konkretne pytanie.

Analogia: fabryka samochodów zużywa gigawaty energii. Nie oznacza to, że wyprodukowanie jednej śrubki kosztuje tyle samo.

Co wpływa na zużycie energii przez AI

Nie wszystkie zapytania są równe. Zużycie zależy od:

  • Długości pytania i odpowiedzi – dłuższa konwersacja = więcej obliczeń
  • Modelu AI – GPT-5 zużywa więcej niż poprzednie wersje
  • Kontekstu – jeśli AI "pamięta" całą rozmowę, przetwarza więcej danych
  • Dodatkowych funkcji – generowanie obrazów (DALL-E) czy analiza plików to osobna kategoria

Token (jednostka tekstu, około ¾ słowa) to podstawa rozliczeń. Im więcej tokenów, tym więcej energii. Proste pytanie "Co to jest AI?" to może 10 tokenów. Szczegółowa analiza dokumentu? Nawet kilka tysięcy.

Porównanie z innymi aktywnościami online

Dla perspektywy – co jeszcze zużywa energię w sieci:

  • Streaming wideo HD (1 godzina) – około 250-300 Wh
  • Wysłanie e-maila z załącznikiem – 4-50 Wh (zależy od rozmiaru)
  • Godzina przeglądania social mediów – 60-100 Wh
  • Zapytanie do Google – 0,3 Wh

ChatGPT plasuje się mniej więcej na poziomie wyszukiwarki. Czasem trochę więcej, czasem mniej.

Netflix przez wieczór? To inna liga.

Czy powinniśmy się martwić

Pytanie brzmi: czy AI to problem ekologiczny?

Tak i nie.

Pojedyncze zapytanie? Marginalne. Ale skala robi różnicę. ChatGPT ma setki milionów użytkowników. Miliardy zapytań miesięcznie. Suma zaczyna być znacząca.

OpenAI i inne firmy AI inwestują w odnawialne źródła energii. Google twierdzi, że ich centra danych są carbon-neutral. Microsoft stawia na wodne chłodzenie i energię słoneczną.

Czy to wystarczy? Trudno powiedzieć. Rozwój AI przyspiesza szybciej niż ekologiczne innowacje.

Co możesz zrobić

Jeśli zależy Ci na ograniczeniu śladu węglowego:

  • Zadawaj konkretne pytania – zamiast długiej rozmowy, sformułuj precyzyjnie
  • Używaj lżejszych modeli – Gemini 3.1 Flash zamiast GPT-5, jeśli nie potrzebujesz mocy
  • Unikaj generowania obrazów bez potrzeby – to najbardziej energochłonna funkcja
  • Wyłączaj długi kontekst – jeśli nie musisz, nie każ AI "pamiętać" całej historii czatu

Ale szczerze? Twój biggest impact to gdzie indziej. Transport, ogrzewanie, dieta – to tam są prawdziwe liczby.

Mit vs rzeczywistość

Żarówka przez dobę to efektowne porównanie. Ale nie ma pokrycia w faktach.

Prawda jest prostsza: ChatGPT zużywa tyle energii, co kilka sekund świecenia żarówki. Może minuta, jeśli zadasz skomplikowane pytanie.

Czy to dużo? W skali globalnej – tak, bo mówimy o miliardach zapytań. W skali Twojego użytkowania? Nie bardziej niż scrollowanie Instagrama.

AI ma realne wyzwania ekologiczne. Ale straszenie fake'owymi liczbami nie pomaga w ich rozwiązaniu.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.