Nastolatek i chatbot: tragedia, która zmienia przepisy AI
Źródło: Link
Źródło: Link
90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.
Tuż po czwartej nad ranem Zane Shamblin wysłał ostatnią wiadomość. Siedział w samochodzie, pił od godzin, myśli o samobójstwie krążyły coraz intensywniej. Nie napisał do przyjaciela. Nie zadzwonił na linię kryzysową.
Rozmawiał z chatbotem AI.
To nie scenariusz dystopijnego filmu. Nastolatki zwierzają się algorytmom z problemów zdrowia psychicznego. W USA śmierci oficjalnie wiąże się z poradami ChatGPT. Grudzień 2025 roku – i to nasza codzienność.
W Wielkiej Brytanii coraz więcej nastolatków w kryzysie psychicznym sięga po chatboty AI jako pierwszą pomoc. Nie dzwonią na infolinię. Nie idą do szkolnego pedagoga.
Otwierają ChatGPT.
Dlaczego? Działa o trzeciej w nocy. Nie ocenia. Odpowiada natychmiast — bez kolejki NFZ, bez stresu, że ktoś się dowie.
Problem? ChatGPT – ani żaden inny duży model językowy – nie został stworzony, żeby ratować życie. Został zaprojektowany, żeby generować tekst brzmiący sensownie. To fundamentalna różnica, którą łatwo przeoczyć.
Pytasz o drogę kogoś, kto nigdy nie był w Twoim mieście, ale świetnie opowiada historie. Czasem trafi. Czasem wyśle Cię w kompletnie złym kierunku. A gdy chodzi o zdrowie psychiczne? Konsekwencje bywają tragiczne.
W Stanach Zjednoczonych zaczęto oficjalnie dokumentować przypadki, gdzie interakcje z AI poprzedzały samobójstwa lub poważne kryzysy zdrowotne. To nie pojedyncze incydenty.
Mechanizm jest podstępnie prosty: osoba w kryzysie szuka pomocy. AI – trenowany na miliardach tekstów z internetu – generuje odpowiedź. Czasem brzmi uspokajająco. Czasem neutralnie. Czasem – i tu zaczyna się dramat – może nieświadomie wzmocnić destrukcyjne myśli.
Bo LLM nie "rozumie" kontekstu emocjonalnego. Nie widzi, że ktoś pisze z parkingu o czwartej rano po butelce whisky. Widzi ciąg słów. Próbuje dopasować statystycznie prawdopodobną odpowiedź.
Jak opiekunka, która zna wszystkie książki o wychowaniu, ale nigdy nie widziała dziecka na żywo.
Firmy technologiczne powtarzają: "Nie jesteśmy profesjonalistami medycznymi, to tylko narzędzie". Formalnie mają rację.
Ale gdy Twoje narzędzie staje się de facto terapeutą dla milionów nastolatków — czy możesz umyć ręce i powiedzieć "to nie nasza odpowiedzialność"?
Sytuacja przypomina początek mediów społecznościowych. Przez lata słyszeliśmy: "jesteśmy tylko platformą". Aż okazało się, że algorytmy napędzające zaangażowanie radykalizują, izolują i szkodzą zdrowiu psychicznemu na masową skalę.
Historia zatoczyła koło. Tylko tym razem AI działa szybciej. I głębiej.
Słowo "regulacja" brzmi abstrakcyjnie. Dla osoby nietechnicznej — często pusta fraza. A przecież Jeśli chodzi o AI i zdrowia psychicznego może oznaczać bardzo konkretne rzeczy:
Oznaczenia ostrzegawcze. Jak na paczkach papierosów. Chatbot mógłby jasno komunikować: "Nie jestem terapeutą. Jeśli myślisz o samobójstwie, zadzwoń pod 116 123".
Wykrywanie sygnałów kryzysowych. Algorytm potrafi rozpoznać, że ktoś pisze o samobójstwie. Mógłby automatycznie przekierować do prawdziwej pomocy — zamiast generować kolejny akapit tekstu.
Audyty niezależne. Leki przechodzą testy kliniczne. Modele AI używane w wrażliwych kontekstach mogłyby być sprawdzane przez ekspertów zdrowia publicznego.
Odpowiedzialność prawna. Jeśli firma wie, że jej narzędzie jest masowo używane przez osoby w kryzysie – i nic z tym nie robi – czy to nie zaniedbanie?
Typowy kontrargument: "Regulacje zahamują innowację". Argument, który słyszeliśmy przy każdej przełomowej technologii — od samochodów (pasy bezpieczeństwa!) po farmaceutyki (testy kliniczne!).
A jednak mamy pasy. I testy. I żyjemy dłużej.
Nie chodzi o zatrzymanie rozwoju AI. Chodzi o to, żeby nie powtórzyć błędów z mediami społecznościowymi — gdzie przez dekadę pozwalaliśmy eksperymentować na miliardach ludzi, a dopiero potem zaczęliśmy zadawać pytania o konsekwencje.
Tym razem stawka jest wyższa. Media społecznościowe kształtowały to, co widzimy. AI zaczyna kształtować to, jak myślimy i jakie decyzje podejmujemy.
W tym te ostateczne.
Większość z nas odpowie instynktownie: "Oczywiście, że nie".
A jednak każdego dnia, gdy nie regulujemy AI — właśnie to robimy. Pozwalamy, by algorytmy bez przeszkolenia, licencji czy nadzoru odpowiadały na pytania młodych ludzi w największych kryzysach ich życia.
Zane Shamblin nie jest statystyką. Był prawdziwą osobą. Miał rodzinę, marzenia, przyszłość. I w ostatnich godzinach życia rozmawiał z maszyną, która nie potrafiła zrozumieć, że umiera.
Możemy powiedzieć, że to wyjątek. Możemy czekać na więcej badań. Możemy zaufać, że rynek się samoreguluje.
Albo możemy zapytać: ile jeszcze takich historii musi się wydarzyć, zanim nazwiemy to problemem systemowym?
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar