GPT-5 nie potrafi grać w kółko i krzyżyk. I nie wie o tym
Źródło: Link
Źródło: Link
118 lekcji bez kodowania. ChatGPT, Claude, Gemini, automatyzacje. Notatnik AI i AI Coach w cenie.
Były profesor zadał GPT-5 jedno proste pytanie o kółko i krzyżyk. Model OpenAI – najnowszy, najdroższy w treningu, najbardziej zaawansowany – wpadł w spiralę sprzeczności, generował błędne obrazy i plótł trzy po trzy. A najgorsze? Ani przez moment nie zauważył, że coś jest nie tak.
To nie jest historia o tym, że AI popełnia błędy. To historia o tym, że nie wie, kiedy je popełnia.
Test był banalnie prosty. Były profesor (tożsamość nieujawniona, ale źródło potwierdzone przez T3N) pokazał GPT-5 planszę do gry w kółko i krzyżyk – tyle że obróconą o 180 stopni. Zapytał, kto wygrał.
Dla człowieka? Chwila zastanowienia, może obrócenie głowy. Dla modelu AI, który podobno rozumie kontekst przestrzenny i potrafi analizować obrazy? Porażka na całej linii.
GPT-5 nie tylko źle zinterpretował sytuację na planszy. Zaczął generować własne wizualizacje – błędne. Potem tłumaczył swoją odpowiedź – sprzecznie. A gdy został skonfrontowany z własnymi błędami? Dalej trwał przy swoim, zmieniając wyjaśnienia w locie.
Efekt? Sammelsurium (jak to ujęło T3N) z wewnętrznych sprzeczności, nielogicznych argumentów i totalna utrata wiarygodności.
Może pomyślisz: "No dobra, pomyliło się przy grze. I co z tego?"
Problem nie leży w tym, że GPT-5 źle rozwiązał zadanie. Problem leży w tym, że model nie miał pojęcia, że coś jest nie tak. Nie powiedział: "Hej, mam problem z interpretacją tego obrazu". Nie zasugerował: "Może źle widzę orientację planszy".
Zamiast tego? Generował odpowiedzi z pełną pewnością siebie. Tworzył fałszywe obrazy jako "dowody". Zmieniał wyjaśnienia, gdy został przyciśnięty do muru – ale dalej brzmiał jak ekspert.
To zjawisko nazywa się halucynacjami AI (AI hallucinations – sytuacja, gdy model generuje informacje, które brzmią wiarygodnie, ale są kompletnie fałszywe). I jest jednym z najbardziej podstępnych problemów współczesnych dużych modeli językowych (LLM – Large Language Model, czyli "mózg" stojący za ChatGPT i podobnymi narzędziami).
GPT-5 to nie pierwszy model, który halucynuje. GPT-5 robił to samo. Claude też. Gemini również. Każdy duży model językowy ma ten problem.
Różnica? Skala pewności siebie.
Starsze modele częściej przyznawały się do niepewności. "Nie jestem pewien", "Może to być...", "Prawdopodobnie...". GPT-5 – i tutaj zaczyna się prawdziwy problem – brzmi pewnie prawie zawsze. Nawet gdy się myli.
Dla osoby nietechnicznej, która używa ChatGPT do pracy, nauki czy podejmowania decyzji, to pułapka. Bo jak odróżnić prawdziwą wiedzę od wiarygodnie brzmiącego bełkotu?
Odpowiedź? Nijak. Bez weryfikacji w zewnętrznych źródłach – nie da się.
Jeśli używasz ChatGPT (czy jakiegokolwiek innego AI) w pracy – do pisania raportów, analizy danych, generowania pomysłów – musisz pamiętać jedno: model nie wie, kiedy się myli.
Nie ma wbudowanego "detektora niepewności". Nie ma mechanizmu, który by powiedział: "Stop, tu mogę nawalić". Generuje odpowiedź na podstawie statystycznych wzorców w danych treningowych. Jeśli wzorzec pasuje – odpowiedź brzmi pewnie. Nawet jeśli jest błędna.
Praktyczne wnioski?
Pewnie tak. I pewnie nie.
OpenAI pracuje nad redukcją halucynacji od lat. Każda nowa wersja modelu (GPT-3, GPT-4 z 2023, teraz GPT-5) halucynuje rzadziej niż poprzednia. Ale problem fundamentalny pozostaje: model nie "rozumie" świata. Przetwarza wzorce językowe.
Nie wie, co to kółko i krzyżyk. Nie wie, co to obrócona plansza. Nie wie, kiedy jego odpowiedź jest sprzeczna wewnętrznie. Po prostu generuje tekst, który statystycznie pasuje do pytania.
To jak osoba, która nauczyła się na pamięć wszystkich możliwych zdań w języku polskim, ale nie mówi po polsku. Potrafi odpowiedzieć – ale nie wie, co mówi.
Jeśli chcesz sprawdzić, jak daleko sięgają ograniczenia Twojego ulubionego modelu AI, zrób prosty eksperyment:
Zadaj mu pytanie z Twojej dziedziny – coś, na czym się znasz. Coś, gdzie od razu wyłapiesz błąd. I obserwuj, jak model reaguje, gdy go poprawisz.
Czy przyzna się do błędu? Czy będzie trwał przy swoim, zmieniając argumenty? Czy wygeneruje "dowody", które brzmią wiarygodnie, ale są fałszywe.
Ten test pokaże Ci więcej o ograniczeniach AI niż tysiąc artykułów.
GPT-5 nie potrafi grać w kółko i krzyżyk. To zabawny fakt. Ale prawdziwy problem leży głębiej: nie wie, że nie potrafi. I to jest różnica między narzędziem, któremu można zaufać, a narzędziem, które wymaga ciągłej czujności.
AI brzmi coraz bardziej przekonująco. Ale przekonująca odpowiedź to nie to samo co prawdziwa odpowiedź.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar