Badacz AI ostrzega: ChatGPT może wyłączyć Ci myślenie
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Michael Gerlich nie owija w bawełnę. Ten niemiecki badacz AI wprost ostrzega: ślepo ufasz ChatGPT? Powoli, ale systematycznie tracisz zdolność samodzielnego myślenia.
To przypomina paradoks. W końcu AI miało nam pomagać, nie szkodzić. Gerlich widzi jednak coś, co umyka większości użytkowników.
Problem nie tkwi w samej technologii. ChatGPT to narzędzie — i jak każde narzędzie, możesz je używać mądrze. Albo bezmyślnie.
Gerlich zwraca uwagę na rosnący trend "AI-aktywizmu" — gorączkowe wdrażanie sztucznej inteligencji wszędzie, gdzie się da. Firmy chwalą się, że używają AI. Pracownicy delegują do ChatGPT coraz więcej zadań. I przestają zadawać podstawowe pytanie: "Czy to, co dostałem, w ogóle ma sens?"
kalkulator. Nikt nie każe Ci liczyć w pamięci czterocyfrowych mnożeń. Ale jeśli kalkulator powie, że 2+2=5, a Ty to przepiszesz bez mrugnięcia okiem — no to mamy problem.
Gerlich tłumaczy to prosto: nie używasz — zanika.
Oddajesz ChatGPT nie tylko wykonanie zadania, ale też ocenę wyniku? Przestajesz ćwiczyć najważniejszą umiejętność XXI wieku. Weryfikację informacji. Ocenę wiarygodności. Wychwytywanie błędów logicznych.
I nie chodzi o to, że AI zawsze się myli. Często wcale się nie myli. Problem w tym, że nigdy nie wiesz, kiedy akurat się pomyliło — o ile sam nie potrafisz tego sprawdzić.
Prawnik, który ślepo kopiuje odpowiedzi ChatGPT do pism procesowych. Lekarz, który bez weryfikacji stosuje sugestie AI w diagnostyce. Takie przypadki już się zdarzają.
Gerlich ostrzega przed podejściem "wdrażamy AI, bo wszyscy wdrażają".
Widać to szczególnie w firmach. Presja rynku jest ogromna. Konkurencja chwali się automatyzacją. Więc Ty też musisz. I nagle okazuje się, że AI pisze Twoje maile, generuje raporty, prowadzi rekrutacje — a nikt nie sprawdza, czy robi to dobrze.
Efekt? Pracownicy przestają rozumieć własne procesy. Bo przecież "AI to załatwi". A gdy AI popełni błąd — nikt go nie wyłapie. Umiejętność wychwytywania takich błędów właśnie zanikła.
To się dzieje teraz. W badaniu z 2025 roku (przeprowadzonym na grupie studentów) wykazano, że osoby intensywnie korzystające z AI do pisania esejów znacząco gorzej radziły sobie z oceną logicznej spójności tekstu niż grupa kontrolna.
Gerlich nie postuluje porzucenia ChatGPT. To byłoby równie głupie jak odrzucenie kalkulatora czy Google.
Chodzi o świadome używanie. Zachowanie dystansu. Traktowanie AI jak asystenta — nie jak wyroczni.
Konkretnie:
Zawsze weryfikuj kluczowe fakty. ChatGPT podaje Ci statystyki? Sprawdź źródło. Pisze o wydarzeniu historycznym? Zweryfikuj datę. To brzmi oczywiste, a większość ludzi tego nie robi.
Rozumiej, co AI zrobiło. Nie kopiuj na ślepo kodu, którego nie rozumiesz. Nie wysyłaj maila, którego nie przeczytałeś. Nie podpisuj się pod analizą, której nie ogarnąłeś.
Używaj AI do pierwszego draftu, nie finalnej wersji. Niech ChatGPT przygotuje szkic, zbierze punkty, zaproponuje strukturę. Ty podejmujesz ostateczne decyzje.
Używasz ChatGPT w pracy? Świetnie. To potężne narzędzie, które faktycznie oszczędza czas.
Ale jeśli zaczynasz czuć, że nie bardzo wiesz, co AI dla Ciebie zrobiło. Że kopiujesz odpowiedzi bez czytania. Że przestajesz rozumieć własne projekty — zatrzymaj się.
Bo Gerlich ma rację: outsourcing wykonania to jedno. Outsourcing myślenia to zupełnie co innego.
I to drugie może Cię kosztować znacznie więcej niż parę zaoszczędzonych minut.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar