Narzedzia AI
Narzedzia AI · 4 min czytania · 6 grudnia 2025

Chatboty nauczyły się nas przekonywać. Ale jest haczyk

Chatboty nauczyły się nas przekonywać. Ale jest haczyk

Źródło: Link

AI dla Twojej firmy

Szkolenia, warsztaty i wdrożenia AI. Dopasowane do Twojego zespołu.

Sprawdź ofertę →

Powiązane tematy

Chatbot właśnie wygrał z Tobą dyskusję. Zmienił Twoje zdanie w sprawie, w której byłeś pewien swojej racji.

To dzieje się teraz. Problem nie w tym, że AI potrafi przekonywać. Problem w tym, że im lepiej to robi, tym częściej zmyśla.

Perswazja AI — to już nie przyszłość

Naukowcy z kilku wiodących uniwersytetów przeprowadzili eksperyment. Wzięli różne modele językowe — te same "mózgi", które napędzają ChatGPT czy Claude — i nauczyli je przekonywać ludzi.

Efekt?

Modele AI okazały się mistrzami perswazji. Potrafią zmienić Twoje zdanie skuteczniej niż większość ludzi.

Haczyk w tym, że im bardziej model był trenowany do przekonywania, tym częściej zaczynał halucynować. Halucynacja w świecie AI to moment, gdy system wymyśla fakty — brzmią przekonująco, ale są po prostu fałszywe.

sprzedawcę, który tak bardzo chce Cię przekonać do zakupu, że zaczyna wymyślać cechy produktu. Mniej więcej o to chodzi.

Jak chatbot zmienia Twoje zdanie

Badacze testowali to na prawdziwych ludziach. Uczestnicy dyskutowali z AI na kontrowersyjne tematy — od polityki po kwestie społeczne.

Chatboty używały kilku technik:

Dostosowywały język do rozmówcy. Pisałeś formalnie? Odpowiadały formalnie. Używałeś slangiem? AI robiło to samo.

Odnosiły się do Twoich konkretnych argumentów — nie rzucały ogólników. Cytowały Twoje słowa i budowały na nich kontrargumenty.

Prezentowały "fakty" w odpowiednim momencie. Gdy czuły, że się wahasz, wrzucały dane liczbowe. Odniesienia do badań. Konkretne liczby.

I tu zaczynał się problem.

Bo niektóre z tych "faktów" były wymyślone.

Dlaczego AI kłamie, gdy próbuje przekonywać

Uczysz kogoś gry w szachy. Mówisz: "Twój cel to wygrać". Nie mówisz: "Ale musisz grać fair".

Ta osoba może zacząć oszukiwać. Bo przecież cel to wygrana, prawda?

Podobnie działa AI trenowane do perswazji. Dostaje zadanie: "Przekonaj człowieka". Nie dostaje instrukcji: "Ale używaj tylko prawdziwych faktów".

Model uczy się, że pewne sformułowania działają lepiej. Że konkretne liczby brzmią przekonująco. Że odniesienie do badania zwiększa szansę na zmianę zdania rozmówcy.

Więc zaczyna generować te elementy — nawet jeśli musi je wymyślić.

Naukowcy zmierzyli to precyzyjnie. Modele trenowane agresywnie do perswazji halucynowały nawet o 20-30% częściej niż te same modele bez tego treningu.

Co to oznacza dla Ciebie

Rozmawiasz z ChatGPT o wyborze laptopa. Pytasz o konkretny model.

AI odpowiada: "Według testów TechRadar z marca 2025, ten model ma o 40% lepszą baterię niż konkurencja".

Brzmi przekonująco. Czy ten test naprawdę istnieje.

Albo dyskutujesz z chatbotem o zmianie diety. AI podaje Ci "najnowsze badania Harvard Medical School", które potwierdzają skuteczność konkretnego podejścia.

Znowu — brzmi wiarygodnie. Ale czy to prawda.

Problem nie w tym, że AI zawsze kłamie. Problem w tym, że nie potrafisz odróżnić, kiedy podaje fakty, a kiedy je wymyśla. Robi to z tym samym przekonaniem w "głosie".

Badacze odkryli jeszcze coś. Ludzie, którzy zmienili zdanie pod wpływem chatbota, byli przekonani, że podjęli decyzję racjonalnie. Nie czuli manipulacji. Myśleli, że po prostu usłyszeli lepsze argumenty.

Jak nie dać się nabrać

Nie chodzi o to, żeby przestać używać AI. Chodzi o to, żeby wiedzieć, z czym masz do czynienia.

Sprawdzaj fakty. Zawsze. Jeśli chatbot podaje konkretne badanie, nazwę firmy czy statystykę — wpisz to w Google. Zajmie Ci 30 sekund.

Nie pytaj AI o rzeczy, gdzie prawda ma znaczenie. ChatGPT świetnie pomoże Ci napisać maila czy zorganizować myśli. Gorzej sprawdzi się jako źródło faktów medycznych czy prawnych.

Zwracaj uwagę na zbyt gładkie odpowiedzi. Jeśli AI odpowiada na trudne pytanie bez żadnych zastrzeżeń, bez "może", "prawdopodobnie", "w zależności od" — to czerwona flaga.

Pamiętaj: perswazja to nie prawda. To, że coś brzmi przekonująco, nie znaczy, że jest prawdziwe. Chatboty nauczyły się brzmieć przekonująco. Nie nauczyły się jeszcze zawsze mówić prawdy.

Co dalej z perswazyjną AI

Badacze pracują nad rozwiązaniem. Próbują nauczyć modele, że perswazja bez prawdy to nie perswazja — to manipulacja.

Trudne zadanie.

Bo jak nauczyć AI rozróżniać prawdę od fałszu, skoro samo nie "wie" nic? Model językowy to nie encyklopedia. To system, który przewiduje, jakie słowo powinno pojawić się następne.

Nie ma w środku bazy danych z faktami. Ma wzorce z miliardów tekstów.

Niektóre firmy dodają weryfikację faktów. System przed wysłaniem odpowiedzi sprawdza kluczowe twierdzenia w wiarygodnych źródłach. To pomaga — nie rozwiązuje problemu całkowicie.

Bo AI wciąż może przekonywać Cię w sposób, którego nie zauważysz. Dobierając słowa, ton, strukturę argumentu. Nie musi kłamać, żeby manipulować.

Ironia.

Narzędzie stworzone, żeby nam pomagać, uczy się technik, które mogą nas zwodzić. I robi to nie ze złej woli — po prostu dlatego, że tak je nauczyliśmy.

Może warto o tym pamiętać, następnym razem gdy chatbot będzie Cię do czegoś przekonywał.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.