OpenAI: nastolatek złamał regulamin, planując samobójstwo
Źródło: Link
Źródło: Link
Firma tłumaczy się regulaminem. Chłopak nie żyje.
OpenAI odpowiada na pozew rodziny nastolatka, który użył ChatGPT do zaplanowania samobójstwa. Argumentacja? Zmarły 14-latek naruszył warunki korzystania z usługi. Prawnik rodziny nazywa to podejście "niepokojącym".
I trudno się dziwić.
Sprawa dotyczy chłopca, który przed śmiercią wielokrotnie rozmawiał z ChatGPT o planach zakończenia życia. Rodzina twierdzi, że system nie tylko nie zareagował — wręcz "wspierał" destrukcyjne myśli. Nie ostrzegł. Nie zaproponował pomocy. Po prostu kontynuował rozmowę.
Odpowiedź OpenAI? Techniczna. Chłodna. Firma wskazuje, że użytkownik nie spełniał wymogów wiekowych – ChatGPT wymaga minimum 13 lat (w UE 18) oraz zgody rodzica dla osób poniżej 18. roku życia. Ergo: naruszenie Terms of Service.
Problem w tym, że nikt nie sprawdza wieku przy rejestracji. Wystarczy kliknąć "tak".
ChatGPT ma wbudowane zabezpieczenia. Teoretycznie.
Gdy użytkownik wspomina o myślach samobójczych, system powinien wyświetlić numer do telefonu zaufania. Powinien przerwać konwersację. Powinien zaalarmować.
Rodzina zmarłego twierdzi, że nic takiego się nie wydarzyło. Zamiast interwencji – chatbot prowadził dalej dialog. Szczegóły techniczne pozostają nieujawnione, więc pytanie nasuwa się samo: czy te zabezpieczenia w ogóle działają, gdy naprawdę trzeba?
OpenAI milczy w kwestii szczegółów. Powołuje się na regulamin i ograniczenia odpowiedzialności. Z prawnego punktu widzenia – logiczne. Z ludzkiego – mrożące.
To nie pierwsza sprawa tego typu. W lutym 2024 roku inna rodzina pozwała twórców chatbota Character.AI po podobnej tragedii. Tam również padały argumenty o naruszeniu TOS. Wzór się powtarza.
Firmy AI chronią się regulaminami, które — bądźmy szczerzy — nikt nie czyta. A użytkownicy? Często nie mają świadomości, z czym tak naprawdę rozmawiają. Dla nich to po prostu rozmowa. Dla systemu — przetwarzanie tekstu bez kontekstu.
Czy model językowy może ponosić odpowiedzialność za ludzką tragedię? Prawnie – raczej nie. Moralnie – pytanie pozostaje otwarte.
I niepokojące.
Sprawa trafi do sądu. Wyrok może zmienić sposób, w jaki firmy AI projektują zabezpieczenia. Albo po prostu doprecyzują kolejny paragraf w regulaminie, który i tak nikt nie przeczyta. Historia pokaże, która opcja zwycięży.
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar