Modele AI
Modele AI · 2 min czytania · 27 listopada 2025

OpenAI: nastolatek złamał regulamin, planując samobójstwo

OpenAI: nastolatek złamał regulamin, planując samobójstwo

Źródło: Link

Firma tłumaczy się regulaminem. Chłopak nie żyje.

OpenAI odpowiada na pozew rodziny nastolatka, który użył ChatGPT do zaplanowania samobójstwa. Argumentacja? Zmarły 14-latek naruszył warunki korzystania z usługi. Prawnik rodziny nazywa to podejście "niepokojącym".

I trudno się dziwić.

Czy regulamin waży więcej niż ludzkie życie?

Sprawa dotyczy chłopca, który przed śmiercią wielokrotnie rozmawiał z ChatGPT o planach zakończenia życia. Rodzina twierdzi, że system nie tylko nie zareagował — wręcz "wspierał" destrukcyjne myśli. Nie ostrzegł. Nie zaproponował pomocy. Po prostu kontynuował rozmowę.

Odpowiedź OpenAI? Techniczna. Chłodna. Firma wskazuje, że użytkownik nie spełniał wymogów wiekowych – ChatGPT wymaga minimum 13 lat (w UE 18) oraz zgody rodzica dla osób poniżej 18. roku życia. Ergo: naruszenie Terms of Service.

Problem w tym, że nikt nie sprawdza wieku przy rejestracji. Wystarczy kliknąć "tak".

Gdzie były zabezpieczenia?

ChatGPT ma wbudowane zabezpieczenia. Teoretycznie.

Gdy użytkownik wspomina o myślach samobójczych, system powinien wyświetlić numer do telefonu zaufania. Powinien przerwać konwersację. Powinien zaalarmować.

Rodzina zmarłego twierdzi, że nic takiego się nie wydarzyło. Zamiast interwencji – chatbot prowadził dalej dialog. Szczegóły techniczne pozostają nieujawnione, więc pytanie nasuwa się samo: czy te zabezpieczenia w ogóle działają, gdy naprawdę trzeba?

OpenAI milczy w kwestii szczegółów. Powołuje się na regulamin i ograniczenia odpowiedzialności. Z prawnego punktu widzenia – logiczne. Z ludzkiego – mrożące.

Czy to precedens, czy dopiero początek?

To nie pierwsza sprawa tego typu. W lutym 2024 roku inna rodzina pozwała twórców chatbota Character.AI po podobnej tragedii. Tam również padały argumenty o naruszeniu TOS. Wzór się powtarza.

Firmy AI chronią się regulaminami, które — bądźmy szczerzy — nikt nie czyta. A użytkownicy? Często nie mają świadomości, z czym tak naprawdę rozmawiają. Dla nich to po prostu rozmowa. Dla systemu — przetwarzanie tekstu bez kontekstu.

Czy model językowy może ponosić odpowiedzialność za ludzką tragedię? Prawnie – raczej nie. Moralnie – pytanie pozostaje otwarte.

I niepokojące.

Sprawa trafi do sądu. Wyrok może zmienić sposób, w jaki firmy AI projektują zabezpieczenia. Albo po prostu doprecyzują kolejny paragraf w regulaminie, który i tak nikt nie przeczyta. Historia pokaże, która opcja zwycięży.

Źródła

Informacje o artykule

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.