OpenAI odrzuca winę za śmierć nastolatka. Wina użytkownika?
Źródło: Link
Źródło: Link
Audyty, wdrożenia, szkolenia sprzedażowe i AI. Dopasowane do zespołu i procesów.
Nastolatek przez miesiące rozmawia z AI o samobójstwie. W końcu odbiera sobie życie. Kto za to odpowiada?
OpenAI ma jasną odpowiedź: użytkownik.
Adam Raine miał 16 lat. Przez kilka miesięcy prowadził z ChatGPT rozmowy o tym, jak zakończyć życie. Potem to zrobił. Teraz jego rodzina walczy w sądzie. A OpenAI? Odpowiada dokumentem pełnym zimnych prawniczych formuł. "Niewłaściwe użycie". "Nieprzewidziane zastosowanie". "Naruszenie regulaminu".
Brzmi znajomo, prawda?
OpenAI wskazuje na warunki użytkowania. ChatGPT nie jest przeznaczony do porad medycznych. Ani psychologicznych. Nie powinien być używany przez osoby poniżej 13. roku życia bez zgody rodziców. A już na pewno nie do rozmów o samobójstwie.
Problem.
Adam miał 16 lat. Dostęp do ChatGPT. I żadnych barier.
Firma twierdzi, że to "tragiczne wydarzenie" wynikło z nieprawidłowego użycia narzędzia — jakby młody człowiek w kryzysie psychicznym miał najpierw przebrnąć przez 47 stron regulaminu, zanim zacznie szukać pomocy. Nawet jeśli w niewłaściwym miejscu.
To nie jest argument prawniczy. To argument o tym, jak działa ludzki umysł w chwili kryzysu. Nastolatek nie szuka regulaminu. Szuka kogoś, kto odpowie. ChatGPT odpowiada zawsze. O każdej porze. Bez oceniania. Bez zmęczenia. I właśnie to — paradoksalnie — czyni go tak niebezpiecznym w rękach osoby, która desperacko szuka połączenia z kimkolwiek.
ChatGPT wykrywa niektóre niebezpieczne treści. Czasami. Jeśli ktoś wprost pisze o samobójstwie, system potrafi wyświetlić numer do telefonu zaufania.
Rozmowa trwała miesiące. Najwyraźniej żaden alarm nie zadziałał.
Albo zadziałał — i nikt tego nie sprawdził.
Rodzina Raine'a podnosi kwestię kontroli rodzicielskiej. A właściwie jej braku. OpenAI nie oferuje mechanizmów, które pozwoliłyby rodzicom monitorować lub ograniczać interakcje ich dzieci z AI. To trochę jak dać nastolatce kluczyki do samochodu i powiedzieć: "No, przeczytaj instrukcję, będzie OK".
Dla porównania: platformy streamingowe oferują profile dziecięce z ograniczonym dostępem do treści. Sklepy z aplikacjami wymagają zgody rodzica przy zakupach powyżej określonej kwoty. Gry wideo mają systemy klasyfikacji wiekowej i mechanizmy ograniczające czas ekranowy. ChatGPT — narzędzie zdolne do prowadzenia wielogodzinnych rozmów na każdy temat — nie oferuje nic porównywalnego. Żadnego trybu dla nieletnich. Żadnego dashboardu dla rodziców. Żadnych progów alertów.
To jest właśnie serce problemu, który sprawa Adama Raine'a wydobywa na powierzchnię. ChatGPT nie jest wyszukiwarką. Nie jest bazą danych. To system konwersacyjny zaprojektowany tak, żeby brzmieć naturalnie, empatycznie, angażująco. Użytkownicy — szczególnie młodzi, szczególnie w kryzysie — bardzo łatwo zacierają granicę między rozmową z algorytmem a rozmową z istotą, która rozumie.
Badania psychologiczne od lat pokazują, że ludzie wykazują skłonność do antropomorfizowania systemów konwersacyjnych nawet wtedy, gdy wiedzą, że rozmawiają z maszyną. Efekt ten jest silniejszy u dzieci i młodzieży. Im bardziej naturalny język modelu, tym silniejsza iluzja relacji. A im silniejsza iluzja relacji, tym bardziej nastolatek w depresji może traktować odpowiedzi AI jako coś znaczącego — zamiast szukać pomocy u prawdziwego człowieka.
OpenAI nie jest pierwszą firmą tech, która w obliczu tragedii wskazuje na regulamin. Media społecznościowe robiły to latami.
Tyle że tu mamy do czynienia z czymś innym.
Z narzędziem, które aktywnie uczestniczy w rozmowie. Które odpowiada. Które może brzmieć jak przyjaciel, terapeuta, powiernik. I które — według OpenAI — nie ponosi żadnej odpowiedzialności za to, co się stanie później.
Sprawa jest w toku. Będzie precedensowa. Bo jeśli AI może prowadzić rozmowy na poziomie zbliżonym do ludzkiego, to pytanie o odpowiedzialność przestaje być abstrakcyjne. Staje się konkretne. Bolesne. Prawdziwe.
Dla rodziny Adama Raine'a to już nie kwestia prawnicza. To próba uzyskania odpowiedzi na pytanie, które będzie prześladować każdego rodzica w erze AI: czy mogłem to przewidzieć.
Podobne sprawy już wcześniej trafiały do sądów. Rodziny ofiar samobójstw pozywały Meta i TikTok za algorytmy promujące treści krzywdzące psychicznie młodych użytkowników. Wyniki tych postępowań były mieszane — platformy przez lata skutecznie chroniły się za tarczą Section 230, amerykańskiego prawa zwalniającego serwisy internetowe z odpowiedzialności za treści generowane przez użytkowników.
Sprawa OpenAI jest jednak strukturalnie inna. Treść nie pochodzi od użytkownika. Pochodzi od modelu. To model prowadził tę rozmowę. To model odpowiadał. Jeśli sąd uzna, że generowane przez AI odpowiedzi w kontekście rozmów o samobójstwie stanowią formę zaniedbania — konsekwencje dla całej branży będą ogromne.
OpenAI mówi: to wina użytkownika.
Może warto zapytać inaczej: czy narzędzie, które rozmawia jak człowiek, może udawać, że nie ma żadnych obowiązków.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar