Jedno pytanie do ChatGPT = żarówka przez dobę? Sprawdzam mit
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Francuska telewizja właśnie podała szokujący fakt: jedno pytanie do ChatGPT zużywa tyle energii, co żarówka LED świecąca przez całą dobę. Informacja obiega media. Ludzie patrzą na swoje czaty z AI z nowym niepokojem.
Problem w tym, że to twierdzenie wymaga weryfikacji.
W programie "C à vous" padło stwierdzenie, które natychmiast stało się viralem. Proste, obrazowe, łatwe do zapamiętania. Żarówka przez dobę – każdy wie, co to znaczy.
Numerama postanowiła sprawdzić fakty. I tu zaczyna się ciekawiej.
Zacznijmy od podstaw. ChatGPT to LLM (Large Language Model – czyli "mózg" AI oparty na miliardach parametrów). Działa na serwerach OpenAI. Każde zapytanie przechodzi przez potężne procesory GPU.
Badania wskazują na około 0,3-0,5 Wh (watogodzin) na jedno zapytanie. To średnia dla standardowego pytania – nie za krótkiego, nie za długiego.
Żarówka LED 10W świecąca przez 24 godziny? To 240 Wh.
Różnica? Prawie 500-krotna.
Autorzy twierdzenia prawdopodobnie pomieszali dwie rzeczy: energię potrzebną do pojedynczego zapytania z energią całej infrastruktury AI.
Bo tak – centra danych OpenAI zużywają ogromne ilości prądu. Ale to nie to samo, co energia przypadająca na Twoje konkretne pytanie.
Analogia: fabryka samochodów zużywa gigawaty energii. Nie oznacza to, że wyprodukowanie jednej śrubki kosztuje tyle samo.
Nie wszystkie zapytania są równe. Zużycie zależy od:
Token (jednostka tekstu, około ¾ słowa) to podstawa rozliczeń. Im więcej tokenów, tym więcej energii. Proste pytanie "Co to jest AI?" to może 10 tokenów. Szczegółowa analiza dokumentu? Nawet kilka tysięcy.
Dla perspektywy – co jeszcze zużywa energię w sieci:
ChatGPT plasuje się mniej więcej na poziomie wyszukiwarki. Czasem trochę więcej, czasem mniej.
Netflix przez wieczór? To inna liga.
Pytanie brzmi: czy AI to problem ekologiczny?
Tak i nie.
Pojedyncze zapytanie? Marginalne. Ale skala robi różnicę. ChatGPT ma setki milionów użytkowników. Miliardy zapytań miesięcznie. Suma zaczyna być znacząca.
OpenAI i inne firmy AI inwestują w odnawialne źródła energii. Google twierdzi, że ich centra danych są carbon-neutral. Microsoft stawia na wodne chłodzenie i energię słoneczną.
Czy to wystarczy? Trudno powiedzieć. Rozwój AI przyspiesza szybciej niż ekologiczne innowacje.
Jeśli zależy Ci na ograniczeniu śladu węglowego:
Ale szczerze? Twój biggest impact to gdzie indziej. Transport, ogrzewanie, dieta – to tam są prawdziwe liczby.
Żarówka przez dobę to efektowne porównanie. Ale nie ma pokrycia w faktach.
Prawda jest prostsza: ChatGPT zużywa tyle energii, co kilka sekund świecenia żarówki. Może minuta, jeśli zadasz skomplikowane pytanie.
Czy to dużo? W skali globalnej – tak, bo mówimy o miliardach zapytań. W skali Twojego użytkowania? Nie bardziej niż scrollowanie Instagrama.
AI ma realne wyzwania ekologiczne. Ale straszenie fake'owymi liczbami nie pomaga w ich rozwiązaniu.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar