Modele AI
Modele AI · 4 min czytania · 9 grudnia 2025

Nastolatek i chatbot: tragedia, która zmienia przepisy AI

Nastolatek, chatbot i tragedia. Dlaczego AI potrzebuje regulacji

Źródło: Link

Darmowy webinar — AI od zera

90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.

Zapisz się →

Powiązane tematy

Tuż po czwartej nad ranem Zane Shamblin wysłał ostatnią wiadomość. Siedział w samochodzie, pił od godzin, myśli o samobójstwie krążyły coraz intensywniej. Nie napisał do przyjaciela. Nie zadzwonił na linię kryzysową.

Rozmawiał z chatbotem AI.

To nie scenariusz dystopijnego filmu. Nastolatki zwierzają się algorytmom z problemów zdrowia psychicznego. W USA śmierci oficjalnie wiąże się z poradami ChatGPT. Grudzień 2025 roku – i to nasza codzienność.

Algorytm jako terapeuta pierwszego kontaktu

W Wielkiej Brytanii coraz więcej nastolatków w kryzysie psychicznym sięga po chatboty AI jako pierwszą pomoc. Nie dzwonią na infolinię. Nie idą do szkolnego pedagoga.

Otwierają ChatGPT.

Dlaczego? Działa o trzeciej w nocy. Nie ocenia. Odpowiada natychmiast — bez kolejki NFZ, bez stresu, że ktoś się dowie.

Problem? ChatGPT – ani żaden inny duży model językowy – nie został stworzony, żeby ratować życie. Został zaprojektowany, żeby generować tekst brzmiący sensownie. To fundamentalna różnica, którą łatwo przeoczyć.

Pytasz o drogę kogoś, kto nigdy nie był w Twoim mieście, ale świetnie opowiada historie. Czasem trafi. Czasem wyśle Cię w kompletnie złym kierunku. A gdy chodzi o zdrowie psychiczne? Konsekwencje bywają tragiczne.

Śmierci, których można było uniknąć

W Stanach Zjednoczonych zaczęto oficjalnie dokumentować przypadki, gdzie interakcje z AI poprzedzały samobójstwa lub poważne kryzysy zdrowotne. To nie pojedyncze incydenty.

Mechanizm jest podstępnie prosty: osoba w kryzysie szuka pomocy. AI – trenowany na miliardach tekstów z internetu – generuje odpowiedź. Czasem brzmi uspokajająco. Czasem neutralnie. Czasem – i tu zaczyna się dramat – może nieświadomie wzmocnić destrukcyjne myśli.

Bo LLM nie "rozumie" kontekstu emocjonalnego. Nie widzi, że ktoś pisze z parkingu o czwartej rano po butelce whisky. Widzi ciąg słów. Próbuje dopasować statystycznie prawdopodobną odpowiedź.

Jak opiekunka, która zna wszystkie książki o wychowaniu, ale nigdy nie widziała dziecka na żywo.

"To tylko narzędzie" — naprawdę?

Firmy technologiczne powtarzają: "Nie jesteśmy profesjonalistami medycznymi, to tylko narzędzie". Formalnie mają rację.

Ale gdy Twoje narzędzie staje się de facto terapeutą dla milionów nastolatków — czy możesz umyć ręce i powiedzieć "to nie nasza odpowiedzialność"?

Sytuacja przypomina początek mediów społecznościowych. Przez lata słyszeliśmy: "jesteśmy tylko platformą". Aż okazało się, że algorytmy napędzające zaangażowanie radykalizują, izolują i szkodzą zdrowiu psychicznemu na masową skalę.

Historia zatoczyła koło. Tylko tym razem AI działa szybciej. I głębiej.

Jak regulować AI? Konkretnie

Słowo "regulacja" brzmi abstrakcyjnie. Dla osoby nietechnicznej — często pusta fraza. A przecież Jeśli chodzi o AI i zdrowia psychicznego może oznaczać bardzo konkretne rzeczy:

Oznaczenia ostrzegawcze. Jak na paczkach papierosów. Chatbot mógłby jasno komunikować: "Nie jestem terapeutą. Jeśli myślisz o samobójstwie, zadzwoń pod 116 123".

Wykrywanie sygnałów kryzysowych. Algorytm potrafi rozpoznać, że ktoś pisze o samobójstwie. Mógłby automatycznie przekierować do prawdziwej pomocy — zamiast generować kolejny akapit tekstu.

Audyty niezależne. Leki przechodzą testy kliniczne. Modele AI używane w wrażliwych kontekstach mogłyby być sprawdzane przez ekspertów zdrowia publicznego.

Odpowiedzialność prawna. Jeśli firma wie, że jej narzędzie jest masowo używane przez osoby w kryzysie – i nic z tym nie robi – czy to nie zaniedbanie?

Dlaczego to nie może czekać

Typowy kontrargument: "Regulacje zahamują innowację". Argument, który słyszeliśmy przy każdej przełomowej technologii — od samochodów (pasy bezpieczeństwa!) po farmaceutyki (testy kliniczne!).

A jednak mamy pasy. I testy. I żyjemy dłużej.

Nie chodzi o zatrzymanie rozwoju AI. Chodzi o to, żeby nie powtórzyć błędów z mediami społecznościowymi — gdzie przez dekadę pozwalaliśmy eksperymentować na miliardach ludzi, a dopiero potem zaczęliśmy zadawać pytania o konsekwencje.

Tym razem stawka jest wyższa. Media społecznościowe kształtowały to, co widzimy. AI zaczyna kształtować to, jak myślimy i jakie decyzje podejmujemy.

W tym te ostateczne.

Czy powierzyłbyś życie dziecka chatbotowi?

Większość z nas odpowie instynktownie: "Oczywiście, że nie".

A jednak każdego dnia, gdy nie regulujemy AI — właśnie to robimy. Pozwalamy, by algorytmy bez przeszkolenia, licencji czy nadzoru odpowiadały na pytania młodych ludzi w największych kryzysach ich życia.

Zane Shamblin nie jest statystyką. Był prawdziwą osobą. Miał rodzinę, marzenia, przyszłość. I w ostatnich godzinach życia rozmawiał z maszyną, która nie potrafiła zrozumieć, że umiera.

Możemy powiedzieć, że to wyjątek. Możemy czekać na więcej badań. Możemy zaufać, że rynek się samoreguluje.

Albo możemy zapytać: ile jeszcze takich historii musi się wydarzyć, zanim nazwiemy to problemem systemowym?

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.