Modele AI
Modele AI · 5 min czytania · 29 listopada 2025

ChatGPT nie umie odczytać godziny. Serio.

ChatGPT nie umie odczytać godziny. Serio.

Źródło: Link

Kurs AI Evolution — od zera do eksperta

118 lekcji bez kodowania. ChatGPT, Claude, Gemini, automatyzacje. Notatnik AI i AI Coach w cenie.

Zacznij od zera →

Powiązane tematy

Pytasz ChatGPT o aktualną godzinę. Czasem odpowie, że nie wie. Czasem poda losową liczbę. A czasem... cóż, dostaniesz coś kompletnie z kosmosu.

Paradoks? Model generuje kod, tłumaczy języki i analizuje złożone dane — ale gubi się przy pytaniu "Która godzina?". The Verge postanowiło sprawdzić, dlaczego coś tak prostego sprawia AI tyle kłopotu.

Wszystko przez konstrukcję

ChatGPT nie ma dostępu do zegara systemowego. To nie błąd. To zamysł.

Duże modele językowe działają na zamrożonych danych treningowych — nie "widzą" świata w czasie rzeczywistym. Kiedy pytasz o czas, model próbuje zgadywać. Bazuje na kontekście konwersacji, wzorcach z treningu, czasem nawet na dacie z promptu systemowego. Efekt? Loteria odpowiedzi.

Warto to zrozumieć głębiej. LLM — czyli duży model językowy — to w uproszczeniu bardzo zaawansowana maszyna do przewidywania kolejnego słowa. Podczas treningu przetwarza ogromne ilości tekstu z internetu, książek, artykułów. Uczy się wzorców językowych, faktów, zależności. Ale ten proces kończy się w pewnym momencie — to tak zwany cutoff date, czyli data graniczna danych treningowych. Po tym punkcie model nie wie nic o świecie. Nie dlatego, że jest głupi. Dlatego, że dosłownie nie ma dostępu do informacji, które powstały później.

Godzina to skrajny przypadek tego problemu. Zmienia się co minutę. Żaden zbiór danych treningowych nie jest w stanie jej uchwycić — bo zanim model odpowie, informacja jest już nieaktualna.

I tu następuje zwrot: OpenAI wie o problemie. Jego rozwiązanie to nie wbudowany zegar — to pluginy i integracje zewnętrzne. ChatGPT może odpytać API pogodowe czy kalendarz Google. Sam? Nie ma szans.

Jak model radzi sobie z tym pytaniem w praktyce

Odpowiedzi ChatGPT na pytanie o godzinę można podzielić na kilka kategorii. Pierwsza — i najbardziej uczciwa — to przyznanie się do niewiedzy: "Nie mam dostępu do aktualnej godziny". Druga to próba wyciągnięcia kontekstu z rozmowy — jeśli wcześniej wspomniałeś coś o porannej kawie, model może "założyć", że jest rano. Trzecia, najbardziej problematyczna, to konfabulacja: podanie konkretnej godziny bez żadnego oparcia w rzeczywistości.

Ten ostatni scenariusz jest szczególnie niebezpieczny. Użytkownik, który nie zna ograniczeń modelu, może potraktować odpowiedź jako fakt. A jest nią równie mało, co losowy rzut kostką.

Dlaczego to w ogóle ma znaczenie

Bo pokazuje fundamentalne ograniczenie. Sprzedajemy ChatGPT jako "inteligentnego asystenta". Tymczasem asystent, który nie wie, która godzina, przypomina żart.

Dla Ciebie oznacza to jedno: nie traktuj odpowiedzi jako faktów, gdy chodzi o dane czasowe. Sprawdzaj. Weryfikuj. Szczególnie gdy AI podaje konkretną godzinę — może być kompletnie wymyślona.

Z drugiej strony — to uczciwe ograniczenie. Model nie udaje wszechwiedzącego. Po prostu mówi: "Nie mam tej informacji".

Czasem.

Inne chatboty też mają ten problem?

Problem dotyczy większości LLM-ów. Claude, Gemini, Llama — wszyscy mają ten sam architektoniczny dylemat. Brak bezpośredniego dostępu do środowiska wykonawczego.

Rozwiązania? Integracje z zewnętrznymi narzędziami (function calling), dostęp do API czasu, lub — najprostsze — wyraźna informacja: "Nie potrafię sprawdzić aktualnej godziny".

Ironia chce, że system zaprojektowany do rozwiązywania skomplikowanych problemów potyka się o coś, co każdy zegarek za 50 złotych robi bez problemu.

Część producentów stara się ten problem obejść na poziomie systemu. Prompt systemowy — czyli ukryta instrukcja, którą model dostaje przed rozmową z użytkownikiem — może zawierać aktualną datę i godzinę wstrzykniętą przez aplikację. W ten sposób działa na przykład wiele firmowych wdrożeń ChatGPT czy asystentów budowanych na bazie API. Ale to rozwiązanie wymaga świadomego działania dewelopera. Domyślnie, bez żadnej integracji, model pozostaje ślepy na czas.

Function calling — przyszłość czy łatka?

Mechanizm zwany function calling pozwala modelowi na wywołanie zewnętrznej funkcji — na przykład zapytanie o aktualny czas z systemowego API. To eleganckie rozwiązanie, ale wymaga infrastruktury. Model sam z siebie nie "sięga" do zegara. Musi mieć zdefiniowaną funkcję, uprawnienia do jej wywołania i środowisko, które tę funkcję obsługuje.

W praktyce oznacza to, że zwykły użytkownik korzystający z chat.openai.com bez dodatkowych wtyczek nadal trafia na ten sam mur. Function calling to narzędzie dla deweloperów budujących aplikacje, nie dla kogoś, kto po prostu chce wiedzieć, czy zdąży na spotkanie.

Co z tego wynika dla użytkowników

Nie pytaj AI o rzeczy wymagające dostępu do świata zewnętrznego — chyba że ma włączone pluginy. Godzina, aktualna pogoda, notowania giełdowe — to wszystko wymaga połączenia z rzeczywistością.

Kilka praktycznych zasad:

  • Jeśli pytasz o aktualny czas, datę lub pogodę — użyj dedykowanego narzędzia, nie chatbota.
  • Jeśli pracujesz z AI w kontekście biznesowym i czas ma znaczenie — upewnij się, że Twoja integracja wstrzykuje aktualną datę do promptu systemowego.
  • Kiedy model podaje konkretną godzinę z pewnością siebie, traktuj to jako sygnał ostrzegawczy — nie jako fakt.
  • Sprawdzaj, czy Twoja wersja ChatGPT ma włączony dostęp do internetu lub odpowiednich narzędzi — to zmienia możliwości modelu diametralnie.

ChatGPT to potężne narzędzie. Ale nie omnipotentne. I właśnie dlatego warto znać jego słabe punkty.

Bo wiedza o tym, czego AI nie potrafi, jest równie ważna jak zrozumienie tego, co robi świetnie.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.