Modele AI
Modele AI · 3 min czytania · 20 listopada 2025

Gemini 3 myślał, że żyje w 2024. Google ma problem

Gemini 3 myślał, że żyje w 2024. Google ma problem

Źródło: Link

Dostajesz dostęp do najnowszego modelu AI od Google. Pytasz o datę. A on upiera się, że żyjemy w 2024 roku.

No i masz problem.

Andrej Karpathy – ten od Tesli, OpenAI i całej tej historii z deep learningiem – właśnie tak się stało. Dostał wczesny dostęp do Gemini 3. I natknął się na coś, co w branży nazywa się "model smell". Brzmi niewinnie, prawda?

Nie jest.

Gdy AI nie wierzy w teraźniejszość

Model smell to taki moment, gdy czujesz, że coś jest nie tak. Nie błąd w kodzie. Nie techniczny glitch. Raczej... dziwność systemowa. Taka, która każe Ci się zatrzymać.

Gemini 3 odmówił uznania, że mamy 2025 rok. Uporczywie. Konsekwentnie. I tu zaczyna się zabawa – bo to nie przypadek. To efekt danych treningowych. Model został wytrenowany na informacjach sprzed określonej daty. I teraz? Wszystko co "nowsze" traktuje jak science fiction.

pytasz o bieżące wydarzenia. A AI odpowiada z perspektywy przeszłości. Jakbyś rozmawiał z kimś, kto zasnął w 2024 i właśnie się obudził.

Tylko że nie zdaje sobie z tego sprawy.

Dlaczego to większy problem niż myślisz

Karpathy nie pierwszy raz widzi takie rzeczy. Tym razem postanowił to nagłośnić. Dlaczego? Bo Gemini 3 to nie eksperyment w garażu. To flagowy model Google.

I tu mamy paradoks. Model jest świeży. Wydany w 2025. Ale jego "świadomość" zatrzymała się rok wcześniej. Dla użytkownika? Frustracja. Dla Google? Sygnał, że coś w procesie treningowym wymaga przeglądu.

Bo widzisz – nie chodzi tylko o datę. Jeśli model nie "wie" jaki mamy rok, to co jeszcze mu umknęło? Jakie wydarzenia? Jakie zmiany?

Gdzie jeszcze będzie operował na przestarzałych założeniach.

Model smell – zapach, którego nie chcesz

W programowaniu mówi się o "code smell" – fragmentach kodu, które technicznie działają, ale... coś tu śmierdzi. Model smell to podobna historia. System działa. Odpowiada. Generuje tekst.

Gdy zagłębisz się w szczegóły, widzisz pęknięcia.

Karpathy trafił w sedno. Gemini 3 pokazuje, jak subtelne mogą być problemy w LLM-ach. To nie spektakularna porażka. To cicha dziwność, która może przejść niezauważona. Dopóki ktoś z doświadczeniem nie zapyta właściwego pytania.

Efekt? Śmiech w branży. I refleksja — bo jeśli Google, z całymi zasobami i zespołem, wypuszcza model z takim quirkiem, to co dzieje się u mniejszych graczy.

Co to oznacza dla Ciebie

Jeśli korzystasz z AI w pracy – sprawdzaj daty. Weryfikuj kontekst. Nie zakładaj, że model "wie" co się dzieje teraz. Bo może operować na danych sprzed miesięcy. Albo roku.

A jeśli testujesz nowe modele? Zadaj proste pytanie: "Jaki mamy rok?". Odpowiedź powie Ci więcej niż myślisz.

Czasem najprostsze pytania wykrywają największe problemy.

Historia zatoczyła koło. Kiedyś testowaliśmy AI pytaniami filozoficznymi. Dziś? Wystarczy zapytać o kalendarz.

Źródła

Informacje o artykule

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.