Modele AI
Modele AI · 5 min czytania · 31 grudnia 2025

GPT-5 nie potrafi grać w kółko i krzyżyk. I nie wie o tym

GPT-5 nie potrafi grać w kółko i krzyżyk. I nie wie o tym

Źródło: Link

Kurs AI Evolution — od zera do eksperta

118 lekcji bez kodowania. ChatGPT, Claude, Gemini, automatyzacje. Notatnik AI i AI Coach w cenie.

Zacznij od zera →

Powiązane tematy

Były profesor zadał GPT-5 jedno proste pytanie o kółko i krzyżyk. Model OpenAI – najnowszy, najdroższy w treningu, najbardziej zaawansowany – wpadł w spiralę sprzeczności, generował błędne obrazy i plótł trzy po trzy. A najgorsze? Ani przez moment nie zauważył, że coś jest nie tak.

To nie jest historia o tym, że AI popełnia błędy. To historia o tym, że nie wie, kiedy je popełnia.

Obrócona plansza, obrócony problem

Test był banalnie prosty. Były profesor (tożsamość nieujawniona, ale źródło potwierdzone przez T3N) pokazał GPT-5 planszę do gry w kółko i krzyżyk – tyle że obróconą o 180 stopni. Zapytał, kto wygrał.

Dla człowieka? Chwila zastanowienia, może obrócenie głowy. Dla modelu AI, który podobno rozumie kontekst przestrzenny i potrafi analizować obrazy? Porażka na całej linii.

GPT-5 nie tylko źle zinterpretował sytuację na planszy. Zaczął generować własne wizualizacje – błędne. Potem tłumaczył swoją odpowiedź – sprzecznie. A gdy został skonfrontowany z własnymi błędami? Dalej trwał przy swoim, zmieniając wyjaśnienia w locie.

Efekt? Sammelsurium (jak to ujęło T3N) z wewnętrznych sprzeczności, nielogicznych argumentów i totalna utrata wiarygodności.

Dlaczego to jest problem

Może pomyślisz: "No dobra, pomyliło się przy grze. I co z tego?"

Problem nie leży w tym, że GPT-5 źle rozwiązał zadanie. Problem leży w tym, że model nie miał pojęcia, że coś jest nie tak. Nie powiedział: "Hej, mam problem z interpretacją tego obrazu". Nie zasugerował: "Może źle widzę orientację planszy".

Zamiast tego? Generował odpowiedzi z pełną pewnością siebie. Tworzył fałszywe obrazy jako "dowody". Zmieniał wyjaśnienia, gdy został przyciśnięty do muru – ale dalej brzmiał jak ekspert.

To zjawisko nazywa się halucynacjami AI (AI hallucinations – sytuacja, gdy model generuje informacje, które brzmią wiarygodnie, ale są kompletnie fałszywe). I jest jednym z najbardziej podstępnych problemów współczesnych dużych modeli językowych (LLM – Large Language Model, czyli "mózg" stojący za ChatGPT i podobnymi narzędziami).

Pewność siebie bez podstaw

GPT-5 to nie pierwszy model, który halucynuje. GPT-5 robił to samo. Claude też. Gemini również. Każdy duży model językowy ma ten problem.

Różnica? Skala pewności siebie.

Starsze modele częściej przyznawały się do niepewności. "Nie jestem pewien", "Może to być...", "Prawdopodobnie...". GPT-5 – i tutaj zaczyna się prawdziwy problem – brzmi pewnie prawie zawsze. Nawet gdy się myli.

Dla osoby nietechnicznej, która używa ChatGPT do pracy, nauki czy podejmowania decyzji, to pułapka. Bo jak odróżnić prawdziwą wiedzę od wiarygodnie brzmiącego bełkotu?

Odpowiedź? Nijak. Bez weryfikacji w zewnętrznych źródłach – nie da się.

Co to oznacza dla Ciebie

Jeśli używasz ChatGPT (czy jakiegokolwiek innego AI) w pracy – do pisania raportów, analizy danych, generowania pomysłów – musisz pamiętać jedno: model nie wie, kiedy się myli.

Nie ma wbudowanego "detektora niepewności". Nie ma mechanizmu, który by powiedział: "Stop, tu mogę nawalić". Generuje odpowiedź na podstawie statystycznych wzorców w danych treningowych. Jeśli wzorzec pasuje – odpowiedź brzmi pewnie. Nawet jeśli jest błędna.

Praktyczne wnioski?

  • Weryfikuj fakty – zwłaszcza liczby, daty, cytaty, dane techniczne. AI potrafi zmyślić źródło, które brzmi realnie, ale nie istnieje.
  • Testuj logikę – jeśli coś brzmi dziwnie, zapytaj model: "Czy jesteś pewien?". Czasami to wystarcza, by zaczął się wycofywać.
  • Nie ufaj obrazom – jeśli AI generuje wizualizację (schemat, wykres, planszę), sprawdź ją ręcznie. GPT-5 pokazał, że może rysować coś, co wygląda profesjonalnie, ale jest błędne.
  • Używaj AI jako asystenta, nie wyroczni – świetnie sprawdzi się do burzy mózgów, pisania draftu, tłumaczenia. Gorzej jako jedyne źródło prawdy.

Czy OpenAI to naprawi?

Pewnie tak. I pewnie nie.

OpenAI pracuje nad redukcją halucynacji od lat. Każda nowa wersja modelu (GPT-3, GPT-4 z 2023, teraz GPT-5) halucynuje rzadziej niż poprzednia. Ale problem fundamentalny pozostaje: model nie "rozumie" świata. Przetwarza wzorce językowe.

Nie wie, co to kółko i krzyżyk. Nie wie, co to obrócona plansza. Nie wie, kiedy jego odpowiedź jest sprzeczna wewnętrznie. Po prostu generuje tekst, który statystycznie pasuje do pytania.

To jak osoba, która nauczyła się na pamięć wszystkich możliwych zdań w języku polskim, ale nie mówi po polsku. Potrafi odpowiedzieć – ale nie wie, co mówi.

Test, który każdy powinien przeprowadzić

Jeśli chcesz sprawdzić, jak daleko sięgają ograniczenia Twojego ulubionego modelu AI, zrób prosty eksperyment:

Zadaj mu pytanie z Twojej dziedziny – coś, na czym się znasz. Coś, gdzie od razu wyłapiesz błąd. I obserwuj, jak model reaguje, gdy go poprawisz.

Czy przyzna się do błędu? Czy będzie trwał przy swoim, zmieniając argumenty? Czy wygeneruje "dowody", które brzmią wiarygodnie, ale są fałszywe.

Ten test pokaże Ci więcej o ograniczeniach AI niż tysiąc artykułów.

Konkluzja: pewność to nie to samo co prawda

GPT-5 nie potrafi grać w kółko i krzyżyk. To zabawny fakt. Ale prawdziwy problem leży głębiej: nie wie, że nie potrafi. I to jest różnica między narzędziem, któremu można zaufać, a narzędziem, które wymaga ciągłej czujności.

AI brzmi coraz bardziej przekonująco. Ale przekonująca odpowiedź to nie to samo co prawdziwa odpowiedź.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.