Gemini 3 myślał, że żyje w 2024. Google ma problem
Źródło: Link
Źródło: Link
Dostajesz dostęp do najnowszego modelu AI od Google. Pytasz o datę. A on upiera się, że żyjemy w 2024 roku.
No i masz problem.
Andrej Karpathy – ten od Tesli, OpenAI i całej tej historii z deep learningiem – właśnie tak się stało. Dostał wczesny dostęp do Gemini 3. I natknął się na coś, co w branży nazywa się "model smell". Brzmi niewinnie, prawda?
Nie jest.
Model smell to taki moment, gdy czujesz, że coś jest nie tak. Nie błąd w kodzie. Nie techniczny glitch. Raczej... dziwność systemowa. Taka, która każe Ci się zatrzymać.
Gemini 3 odmówił uznania, że mamy 2025 rok. Uporczywie. Konsekwentnie. I tu zaczyna się zabawa – bo to nie przypadek. To efekt danych treningowych. Model został wytrenowany na informacjach sprzed określonej daty. I teraz? Wszystko co "nowsze" traktuje jak science fiction.
pytasz o bieżące wydarzenia. A AI odpowiada z perspektywy przeszłości. Jakbyś rozmawiał z kimś, kto zasnął w 2024 i właśnie się obudził.
Tylko że nie zdaje sobie z tego sprawy.
Karpathy nie pierwszy raz widzi takie rzeczy. Tym razem postanowił to nagłośnić. Dlaczego? Bo Gemini 3 to nie eksperyment w garażu. To flagowy model Google.
I tu mamy paradoks. Model jest świeży. Wydany w 2025. Ale jego "świadomość" zatrzymała się rok wcześniej. Dla użytkownika? Frustracja. Dla Google? Sygnał, że coś w procesie treningowym wymaga przeglądu.
Bo widzisz – nie chodzi tylko o datę. Jeśli model nie "wie" jaki mamy rok, to co jeszcze mu umknęło? Jakie wydarzenia? Jakie zmiany?
Gdzie jeszcze będzie operował na przestarzałych założeniach.
W programowaniu mówi się o "code smell" – fragmentach kodu, które technicznie działają, ale... coś tu śmierdzi. Model smell to podobna historia. System działa. Odpowiada. Generuje tekst.
Gdy zagłębisz się w szczegóły, widzisz pęknięcia.
Karpathy trafił w sedno. Gemini 3 pokazuje, jak subtelne mogą być problemy w LLM-ach. To nie spektakularna porażka. To cicha dziwność, która może przejść niezauważona. Dopóki ktoś z doświadczeniem nie zapyta właściwego pytania.
Efekt? Śmiech w branży. I refleksja — bo jeśli Google, z całymi zasobami i zespołem, wypuszcza model z takim quirkiem, to co dzieje się u mniejszych graczy.
Jeśli korzystasz z AI w pracy – sprawdzaj daty. Weryfikuj kontekst. Nie zakładaj, że model "wie" co się dzieje teraz. Bo może operować na danych sprzed miesięcy. Albo roku.
A jeśli testujesz nowe modele? Zadaj proste pytanie: "Jaki mamy rok?". Odpowiedź powie Ci więcej niż myślisz.
Czasem najprostsze pytania wykrywają największe problemy.
Historia zatoczyła koło. Kiedyś testowaliśmy AI pytaniami filozoficznymi. Dziś? Wystarczy zapytać o kalendarz.
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar