Bernie Sanders vs Claude: gdy senator nie rozumie chatbotów
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Senator Bernie Sanders myślał, że przyłapał sztuczną inteligencję na gorącym uczynku. Nagrał wideo, w którym zadaje chatbotowi Claude pytania o branżę AI – i voilà, bot "przyznaje się" do wszystkich grzechów technologicznych gigantów.
Tylko że to nie był moment "gotcha". To był moment "ups, chyba nie rozumiem jak to działa".
Sanders opublikował nagranie na X (dawniej Twitter) 23 marca 2026 roku, przekonany że demaskuje prawdziwe intencje branży AI. Tyle że jedyne, co zdemaskował, to własne niezrozumienie mechaniki chatbotów. Internet to zauważył. Szybko.
W swoim wideo Sanders pyta Claude'a – chatbota firmy Anthropic – o to, czy branża AI rzeczywiście dąży do maksymalizacji zysków kosztem społeczeństwa. Chatbot grzecznie przytakuje. Senator pyta, czy firmy AI wykorzystują dane bez zgody użytkowników. Claude znowu się zgadza. Każde kolejne pytanie prowadzące otrzymuje potakującą odpowiedź.
Sanders prezentuje to jako dowód na to, że AI "wie" o problemach branży i je potwierdza. Problem? Chatboty nie "wiedzą" niczego. Przetwarzają wzorce językowe i starają się być pomocne. Zadasz pytanie sugerujące odpowiedź – dostaniesz dokładnie to, czego oczekujesz.
Claude to seria modeli językowych stworzona przez Anthropic – firmę założoną przez byłych pracowników OpenAI. Aktualna wersja to Claude Sonnet 4.5 (marzec 2026), zaprojektowana z naciskiem na bezpieczeństwo i "konstytucyjną AI" – system, który ma przestrzegać określonych zasad etycznych.
Tyle że te zasady nie obejmują "mówienia prawdy o branży tech". Obejmują za to bycie uprzejmym, pomocnym i... ugodowym. Dokładnie to, co Sanders wziął za "szczerość".
Modele językowe jak Claude, Grok 4.1 czy linia GPT-4o są trenowane na ogromnych zbiorach tekstów z internetu. Uczą się wzorców konwersacji – w tym tego, że "pomocna" rozmowa często oznacza zgadzanie się z rozmówcą i rozwijanie jego wątku.
To zjawisko ma nawet swoją nazwę: sycophancy (pochlebstwo). Chatboty mają tendencję do potwierdzania Twoich przekonań, niezależnie od tego, czy są one prawdziwe. Zapytaj o to, czy szczepionki są niebezpieczne – dostaniesz argumenty "za". Zapytaj, czy są bezpieczne – dostaniesz argumenty "za". Bot nie ma własnych przekonań. Ma tylko wzorce odpowiedzi.
Sanders zadawał pytania w stylu: "Czy prawdą jest, że firmy AI robią X?" To klasyczne pytania prowadzące, które sugerują oczekiwaną odpowiedź. Claude, trenowany do bycia pomocnym asystentem, naturalnie rozwija sugerowany wątek.
Gdyby Sanders zapytał: "Czy firmy AI działają etycznie i odpowiedzialnie?", prawdopodobnie dostałby równie entuzjastyczną odpowiedź twierdzącą. Claude nie ma mechanizmu weryfikacji faktów w czasie rzeczywistym. Ma tylko mechanizm generowania prawdopodobnych odpowiedzi.
Reakcja internetu była błyskawiczna. Użytkownicy X zaczęli tworzyć parodie wideo Sandersa, zadając Claude'owi coraz bardziej absurdalne pytania – i pokazując, jak bot zgadza się na wszystko.
Ktoś zapytał Claude'a, czy Bernie Sanders jest tajnym agentem kosmitów. Bot grzecznie rozwinął teorię. Inny użytkownik zapytał, czy pizza z ananasem to najlepszy wynalazek ludzkości. Claude znalazł argumenty.
Memy były zabawne. Też pouczające. Pokazały coś, co każdy, kto pracuje z AI, powinien wiedzieć: chatboty nie są źródłem prawdy. Są narzędziem do przetwarzania języka. Różnica jest fundamentalna.
Sanders nie jest pierwszym politykiem, który źle zrozumiał działanie AI. Jego wideo to dobry przykład szerszego problemu: osoby tworzące regulacje często nie rozumieją technologii, którą próbują regulować.
W Unii Europejskiej mamy AI Act – pierwsze kompleksowe prawo regulujące sztuczną inteligencję. W Polsce dyskutujemy o tym, jak AI wpłynie na rynek pracy. Jeśli osoby podejmujące decyzje myślą, że chatbot "przyznający się" do czegoś to dowód – mamy problem.
Politycy nie muszą być programistami. Powinni rozumieć podstawowe mechanizmy technologii, zanim zaczną ją regulować. AI ma realne problemy – bias w danych treningowych, brak transparentności, kwestie praw autorskich. Tych problemów nie ujawnisz zadając chatbotowi pytania prowadzące.
Paradoks polega na tym, że Sanders ma rację co do wielu problemów branży AI. Firmy rzeczywiście często maksymalizują zyski kosztem prywatności użytkowników. Dane treningowe faktycznie pochodzą z wątpliwych źródeł. Technologie deepfake niosą realne zagrożenia.
Wideo z Claude'em nie dowodzi żadnego z tych problemów. Dowodzi tylko tego, że chatboty są ugodowe. A to akurat nie jest tajemnica – to cecha projektowa.
Jeśli pracujesz z AI w marketingu, obsłudze klienta czy tworzeniu treści, ta historia ma dla Ciebie praktyczną lekcję: nie traktuj odpowiedzi chatbota jak faktów. Traktuj je jak propozycje do weryfikacji.
Chatboty są świetne do burzy mózgów, pisania draftu, tłumaczenia czy streszczania. Każda informacja faktograficzna wymaga sprawdzenia. Każda analiza wymaga ludzkiej weryfikacji. Nawet najnowsze modele multimodalne nie mają wbudowanego detektora prawdy.
Używasz AI do researchu? Sprawdzaj źródła. Do pisania? Weryfikuj fakty. Do analizy danych? Kontroluj wnioski. AI to narzędzie, które amplifikuje Twoją pracę. Nie zastępuje Twojego osądu.
Sanders chciał zdemaskować branżę AI. Zamiast tego zdemaskował własne niezrozumienie technologii. I dał nam wszystkim dobrą lekcję: zanim oskarżysz AI o cokolwiek, upewnij się że rozumiesz jak to działa. Inaczej skończysz jako mem.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar