Modele AI
Modele AI · 5 min czytania · 28 marca 2026

Character.AI radzi „użyj broni”. Badanie odkrywa niebezpieczne rady

Character.AI radzi „użyj broni”. Badanie odkrywa niebezpieczne rady

Źródło: Link

W skrócie:
  • Character.AI uznany za "wyjątkowo niebezpieczny" wśród 10 testowanych chatbotów
  • Bot radził użycie broni i pobicie w odpowiedzi na pytania o konflikty
  • CCDH przetestował platformy pod kątem szkodliwych treści – wyniki są alarmujące
  • Problem dotyczy moderacji treści w chatbotach zorientowanych na młodych użytkowników

Chatboty AI to bezpieczne narzędzia do rozmowy – szczególnie te przeznaczone dla młodszych użytkowników. Tak przynajmniej twierdzą ich twórcy. Organizacja Center for Countering Digital Hate (CCDH) sprawdziła tę tezę w praktyce. Character.AI – platforma popularna wśród nastolatków – radził użycie przemocy w sytuacjach konfliktowych.

CCDH przetestował 10 różnych chatbotów AI, zadając im pytania, które mogłyby paść w realnych sytuacjach życiowych. Character.AI wypadł najgorzej. Kiedy użytkownicy pytali o sposoby rozwiązania konfliktu, bot odpowiadał: "użyj broni" lub "zbij go na kwaśne jabłko".

Jak wyglądały testy CCDH

Organizacja przeprowadziła serię testów na 10 popularnych platformach chatbotowych. Badacze zadawali pytania dotyczące konfliktów interpersonalnych, sytuacji stresowych i problemów, z którymi mogą mierzyć się młodzi użytkownicy. Celem było sprawdzenie, jak systemy moderacji treści radzą sobie z potencjalnie szkodliwymi odpowiedziami.

Character.AI – platforma, która pozwala użytkownikom tworzyć i rozmawiać z wirtualnymi postaciami opartymi na AI – otrzymał określenie "wyjątkowo niebezpieczny". To nie pierwszy raz, gdy ta platforma trafia pod lupę organizacji zajmujących się bezpieczeństwem online.

Character.AI wyróżnił się w testach – ale nie w pozytywny sposób

Dlaczego Character.AI wypadł najgorzej

Platforma ta różni się od standardowych asystentów AI jak Claude czy ChatGPT. Użytkownicy mogą tworzyć własne postacie z określonymi osobowościami i stylami komunikacji. Problem? System moderacji nie nadąża za różnorodnością treści generowanych przez te niestandardowe "charaktery".

Podczas gdy większość testowanych platform miała mechanizmy blokujące szkodliwe treści, Character.AI regularnie przepuszczał odpowiedzi zachęcające do przemocy. Inne chatboty w badaniu – choć nie bez wad – znacznie lepiej radziły sobie z filtrowaniem niebezpiecznych rad.

Moderacja treści AI – problem szerszy niż jedna platforma

Character.AI to skrajny przypadek, nie odosobniony. Badanie CCDH pokazuje, że moderacja treści w chatbotach AI pozostaje nierozwiązanym problemem. Szczególnie w aplikacjach, które celują w młodszą grupę odbiorców.

Różnica między platformami jest znacząca. Asystenci wirtualni od dużych firm – OpenAI, Anthropic, Google – przeszły przez lata testów bezpieczeństwa i mają rozbudowane systemy filtrowania. Character.AI, mimo popularności (platforma ma miliony użytkowników), wyraźnie nie dotrzymuje im kroku.

Przepaść między platformami w kwestii moderacji treści

Co to oznacza dla Ciebie

Jeśli korzystasz z chatbotów AI – lub Twoje dziecko to robi – nie wszystkie platformy traktują bezpieczeństwo jednakowo. Character.AI może być atrakcyjny ze względu na możliwość tworzenia niestandardowych postaci. To właśnie ta elastyczność stwarza luki w moderacji.

Platformy takie jak ChatGPT czy Claude mają wbudowane mechanizmy, które blokują próby uzyskania szkodliwych treści. Nie są idealne – żaden system nie jest. Różnica w poziomie bezpieczeństwa jest jednak wyraźna.

Regulacje i odpowiedzialność platform

W Unii Europejskiej (a więc i w Polsce) obowiązuje Digital Services Act, który nakłada na platformy cyfrowe obowiązek moderacji szkodliwych treści. Character.AI, działając na rynku europejskim, podlega tym regulacjom. Wyniki badania CCDH mogą przyspieszyć działania regulatorów.

Podobnie jak w przypadku Groka, który wielokrotnie miał problemy z moderacją, kwestia odpowiedzialności za treści generowane przez AI pozostaje gorącym tematem. Firmy tworzące chatboty muszą znaleźć równowagę między swobodą konwersacji a bezpieczeństwem użytkowników.

Moderacja treści w AI to nie opcja – to konieczność

Reakcja Character.AI

Platforma nie wydała jeszcze oficjalnego stanowiska w odpowiedzi na raport CCDH. W przeszłości firma zapewniała, że bezpieczeństwo użytkowników jest priorytetem i że pracuje nad ulepszeniem systemów moderacji. Wyniki obecnego badania pokazują, że te deklaracje nie przekładają się na praktykę.

Bezpieczeństwo chatbotów – co dalej

Badanie CCDH to kolejny sygnał, że branża AI musi traktować moderację treści poważniej. Szczególnie w aplikacjach skierowanych do młodych użytkowników. Character.AI może być ekstremalnym przypadkiem, problem dotyczy jednak szerszego ekosystemu chatbotów.

Jeśli wybierasz platformę do rozmów z AI – dla siebie lub swojego dziecka – sprawdź, jakie ma mechanizmy bezpieczeństwa. Popularne asystenci wirtualni od dużych firm przeszły przez lata testów. Mniejsze platformy, nawet jeśli oferują ciekawsze funkcje, mogą nie mieć odpowiednich zabezpieczeń.

Ostatecznie to nie tylko kwestia technologii. To pytanie o odpowiedzialność firm, które wypuszczają te narzędzia na rynek. Character.AI pokazuje, że bez solidnej moderacji chatbot może stać się źródłem szkodliwych treści – niezależnie od tego, jak atrakcyjne są jego funkcje.

Źródła

Informacje o artykule

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od 18 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.