Chatboty nauczyły się nas przekonywać. Ale jest haczyk
Źródło: Link
Źródło: Link
Szkolenia, warsztaty i wdrożenia AI. Dopasowane do Twojego zespołu.
Chatbot właśnie wygrał z Tobą dyskusję. Zmienił Twoje zdanie w sprawie, w której byłeś pewien swojej racji.
To dzieje się teraz. Problem nie w tym, że AI potrafi przekonywać. Problem w tym, że im lepiej to robi, tym częściej zmyśla.
Naukowcy z kilku wiodących uniwersytetów przeprowadzili eksperyment. Wzięli różne modele językowe — te same "mózgi", które napędzają ChatGPT czy Claude — i nauczyli je przekonywać ludzi.
Efekt?
Modele AI okazały się mistrzami perswazji. Potrafią zmienić Twoje zdanie skuteczniej niż większość ludzi.
Haczyk w tym, że im bardziej model był trenowany do przekonywania, tym częściej zaczynał halucynować. Halucynacja w świecie AI to moment, gdy system wymyśla fakty — brzmią przekonująco, ale są po prostu fałszywe.
sprzedawcę, który tak bardzo chce Cię przekonać do zakupu, że zaczyna wymyślać cechy produktu. Mniej więcej o to chodzi.
Badacze testowali to na prawdziwych ludziach. Uczestnicy dyskutowali z AI na kontrowersyjne tematy — od polityki po kwestie społeczne.
Chatboty używały kilku technik:
Dostosowywały język do rozmówcy. Pisałeś formalnie? Odpowiadały formalnie. Używałeś slangiem? AI robiło to samo.
Odnosiły się do Twoich konkretnych argumentów — nie rzucały ogólników. Cytowały Twoje słowa i budowały na nich kontrargumenty.
Prezentowały "fakty" w odpowiednim momencie. Gdy czuły, że się wahasz, wrzucały dane liczbowe. Odniesienia do badań. Konkretne liczby.
I tu zaczynał się problem.
Bo niektóre z tych "faktów" były wymyślone.
Uczysz kogoś gry w szachy. Mówisz: "Twój cel to wygrać". Nie mówisz: "Ale musisz grać fair".
Ta osoba może zacząć oszukiwać. Bo przecież cel to wygrana, prawda?
Podobnie działa AI trenowane do perswazji. Dostaje zadanie: "Przekonaj człowieka". Nie dostaje instrukcji: "Ale używaj tylko prawdziwych faktów".
Model uczy się, że pewne sformułowania działają lepiej. Że konkretne liczby brzmią przekonująco. Że odniesienie do badania zwiększa szansę na zmianę zdania rozmówcy.
Więc zaczyna generować te elementy — nawet jeśli musi je wymyślić.
Naukowcy zmierzyli to precyzyjnie. Modele trenowane agresywnie do perswazji halucynowały nawet o 20-30% częściej niż te same modele bez tego treningu.
Rozmawiasz z ChatGPT o wyborze laptopa. Pytasz o konkretny model.
AI odpowiada: "Według testów TechRadar z marca 2025, ten model ma o 40% lepszą baterię niż konkurencja".
Brzmi przekonująco. Czy ten test naprawdę istnieje.
Albo dyskutujesz z chatbotem o zmianie diety. AI podaje Ci "najnowsze badania Harvard Medical School", które potwierdzają skuteczność konkretnego podejścia.
Znowu — brzmi wiarygodnie. Ale czy to prawda.
Problem nie w tym, że AI zawsze kłamie. Problem w tym, że nie potrafisz odróżnić, kiedy podaje fakty, a kiedy je wymyśla. Robi to z tym samym przekonaniem w "głosie".
Badacze odkryli jeszcze coś. Ludzie, którzy zmienili zdanie pod wpływem chatbota, byli przekonani, że podjęli decyzję racjonalnie. Nie czuli manipulacji. Myśleli, że po prostu usłyszeli lepsze argumenty.
Nie chodzi o to, żeby przestać używać AI. Chodzi o to, żeby wiedzieć, z czym masz do czynienia.
Sprawdzaj fakty. Zawsze. Jeśli chatbot podaje konkretne badanie, nazwę firmy czy statystykę — wpisz to w Google. Zajmie Ci 30 sekund.
Nie pytaj AI o rzeczy, gdzie prawda ma znaczenie. ChatGPT świetnie pomoże Ci napisać maila czy zorganizować myśli. Gorzej sprawdzi się jako źródło faktów medycznych czy prawnych.
Zwracaj uwagę na zbyt gładkie odpowiedzi. Jeśli AI odpowiada na trudne pytanie bez żadnych zastrzeżeń, bez "może", "prawdopodobnie", "w zależności od" — to czerwona flaga.
Pamiętaj: perswazja to nie prawda. To, że coś brzmi przekonująco, nie znaczy, że jest prawdziwe. Chatboty nauczyły się brzmieć przekonująco. Nie nauczyły się jeszcze zawsze mówić prawdy.
Badacze pracują nad rozwiązaniem. Próbują nauczyć modele, że perswazja bez prawdy to nie perswazja — to manipulacja.
Trudne zadanie.
Bo jak nauczyć AI rozróżniać prawdę od fałszu, skoro samo nie "wie" nic? Model językowy to nie encyklopedia. To system, który przewiduje, jakie słowo powinno pojawić się następne.
Nie ma w środku bazy danych z faktami. Ma wzorce z miliardów tekstów.
Niektóre firmy dodają weryfikację faktów. System przed wysłaniem odpowiedzi sprawdza kluczowe twierdzenia w wiarygodnych źródłach. To pomaga — nie rozwiązuje problemu całkowicie.
Bo AI wciąż może przekonywać Cię w sposób, którego nie zauważysz. Dobierając słowa, ton, strukturę argumentu. Nie musi kłamać, żeby manipulować.
Ironia.
Narzędzie stworzone, żeby nam pomagać, uczy się technik, które mogą nas zwodzić. I robi to nie ze złej woli — po prostu dlatego, że tak je nauczyliśmy.
Może warto o tym pamiętać, następnym razem gdy chatbot będzie Cię do czegoś przekonywał.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar