Cognitive surrender: dlaczego przestajemy myśleć przy AI
Źródło: Link
Źródło: Link
Szkolenia, warsztaty i wdrożenia AI. Dopasowane do Twojego zespołu.
Moja znajoma z działu HR zapytała wczoraj ChatGPT o interpretację przepisów o urlopach. Dostała odpowiedź, która brzmiała profesjonalnie – pełna terminów prawniczych, konkretnych odniesień. Przyjęła ją bez sprawdzenia. Dopiero gdy kolega z prawnego zobaczył jej notatkę, wyszło na jaw: AI wymyśliło połowę regulacji.
Nie jest w tym niczym wyjątkowym. Badania opublikowane przez Ars Technica pokazują, że to wzorzec, nie przypadek. Naukowcy nazwali go "cognitive surrender" – kapitulacją poznawczą. W eksperymentach zdecydowana większość użytkowników bezkrytycznie akceptowała błędne odpowiedzi AI, nawet gdy były oczywiste dla osoby myślącej samodzielnie.
Badacze przeprowadzili serię testów, w których uczestnicy otrzymywali od AI odpowiedzi zawierające celowe błędy logiczne. Nie mówimy tu o subtelnych nieścisłościach – niektóre odpowiedzi były wewnętrznie sprzeczne lub ignorowały podstawowe fakty z treści pytania.
Wyniki? Przerażające. W zależności od eksperymentu, od 60% do 80% uczestników zaakceptowało błędne odpowiedzi bez zastrzeżeń. Gdy poproszono ich o uzasadnienie swoich decyzji, wielu powtarzało argumenty AI – nawet te logicznie niespójne.
Najciekawsze: uczestnicy nie byli przypadkowymi osobami z ulicy. Część badań prowadzono na studentach i profesjonalistach – ludziach przyzwyczajonych do analitycznego myślenia w codziennej pracy.
Badacze zidentyfikowali kilka mechanizmów psychologicznych odpowiedzialnych za kapitulację poznawczą. Pierwszy to automation bias – tendencja do faworyzowania informacji generowanych przez systemy automatyczne nad własnym osądem. Widzieliśmy to już przy systemach nawigacji GPS czy autopilotach, ale modele językowe potęgują ten efekt.
Drugi mechanizm to cognitive offloading – przekazywanie zadań myślowych zewnętrznym narzędziom. Samo w sobie nie jest złe (dlatego mamy kalkulatory). Problem zaczyna się, gdy oddajemy AI zadania wymagające kontekstu, osądu lub weryfikacji faktów.
Trzeci element to sposób, w jaki AI prezentuje informacje. Modele językowe generują tekst z pozorną pewnością siebie – bez zastrzeżeń, wątpliwości czy sygnałów niepewności, które naturalnie pojawiają się w ludzkiej komunikacji. Ta pewność jest zaraźliwa.
Kluczowa obserwacja z badań: AI podaje błędne informacje (to się zdarza), ale prawdziwy problem leży gdzie indziej. Użytkownicy przestają weryfikować nawet wtedy, gdy mają ku temu narzędzia i wiedzę.
W jednym z eksperymentów uczestnicy mieli dostęp do źródeł, które pozwalały sprawdzić odpowiedzi AI. Większość z nich nawet nie otworzyła tych źródeł. Zaakceptowali pierwszą odpowiedź, którą dostali.
To zjawisko ma szczególne znaczenie Gdy używasz asystentów AI do kodowania, analizy danych czy przygotowywania raportów, kapitulacja poznawcza może prowadzić do błędów, które przejdą przez cały proces weryfikacji – bo wszyscy w łańcuchu zaufali AI.
Jeśli chodzi o unijny AI Act, który zacznie obowiązywać w pełni w 2026 roku, kapitulacja poznawcza staje się problemem regulacyjnym. Przepisy wymagają od firm stosujących AI w procesach decyzyjnych zapewnienia nadzoru ludzkiego. Ale jeśli ten nadzór polega na bezkrytycznym akceptowaniu rekomendacji AI, regulacje pozostają martwą literą.
Polskie firmy wdrażające AI – szczególnie w sektorach regulowanych jak finanse czy HR – muszą to brać pod uwagę. Nie wystarczy mieć człowieka "w pętli". Ten człowiek musi faktycznie myśleć, nie tylko klikać "zatwierdź".
Badacze sugerują kilka praktycznych strategii. Pierwsza: traktuj AI jak juniora, nie eksperta. Juniorzy dostarczają wartościowych pomysłów, ale wymagają weryfikacji i kontekstu, którego sami nie mają.
Druga: wprowadź obowiązkowy krok weryfikacji. Zanim użyjesz odpowiedzi AI w pracy, zadaj sobie jedno pytanie: "Skąd AI to wie?". Jeśli nie potrafisz wskazać źródła lub logiki – nie używaj tej informacji.
Trzecia strategia, szczególnie dla zespołów: rotacja zadań. Jeśli zawsze używasz AI do tego samego typu zadań, Twoja zdolność do samodzielnego wykonania tych zadań atrofiuje. Podobnie jak z nawigacją GPS – jeśli zawsze jej używasz, przestajesz pamiętać drogi.
Niektóre narzędzia AI zaczynają adresować ten problem projektowo. Perplexity podaje źródła przy każdej odpowiedzi. Anthropic Code Review wymusza przegląd kodu generowanego przez AI. To kroki w dobrym kierunku.
Ostatecznie odpowiedzialność leży po stronie użytkownika. Narzędzie może ułatwić weryfikację, ale nie zastąpi decyzji: "Sprawdzę to, zanim użyję".
Badania pokazują skalę problemu, ale nie skazują nas na bezradność. Kapitulacja poznawcza nie jest automatyczną konsekwencją używania AI – to nawyk, który można zmienić.
Kluczowe pytanie nie brzmi "Czy AI podaje dobre odpowiedzi?", ale "Czy ja nadal myślę, gdy używam AI?". Jeśli odpowiedź brzmi "nie" – to sygnał, że narzędzie, które miało Cię wspierać, zaczyna Cię zastępować.
AI jest potężnym narzędziem wzmacniającym myślenie. Tylko wtedy, gdy to myślenie nadal istnieje. W przeciwnym razie masz kosztowny automat do generowania tekstu, który brzmi mądrze – ale nie musi być prawdziwy.
Na podstawie: Ars Technica
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar