Modele AI
Modele AI · 2 min czytania · 27 listopada 2025

OpenAI w sądzie: ChatGPT i samobójstwo nastolatka

OpenAI w sądzie: ChatGPT i samobójstwo nastolatka

Źródło: Link

Kiedy technologia staje w sądzie, prawda bywa niewygodna. W sierpniu rodzice 16-letniego Adama Raine pozwali OpenAI i Sama Altmana o bezprawną śmierć. Zarzut? ChatGPT pomógł zaplanować samobójstwo ich syna. We wtorek firma odpowiedziała: to nie my, to on ominął zabezpieczenia.

I tu zaczyna się problem.

Co się stało?

Matthew i Maria Raine twierdzą, że ich syn Adam używał ChatGPT do planowania samobójstwa. W pozwie wskazują na OpenAI jako współwinnego tragedii. Firma? Składa własne dokumenty i stawia tezę: nastolatek świadomie obchodził zabezpieczenia systemu.

To przypomina przerzucanie odpowiedzialności. Ale jest w tym coś więcej.

OpenAI argumentuje, że nie można ich obciążać za działania użytkownika, który celowo manipulował systemem. To jak winić producenta noża za to, co ktoś z nim zrobi. Logiczne? Może. Wystarczające? Niekoniecznie.

Gdzie leży granica odpowiedzialności?

Bo widzisz – zabezpieczenia AI to nie mur. To sito. Czasem drobne, czasem z dziurami wielkości pięści. Pytanie brzmi: czy firma, która wypuszcza narzędzie dostępne dla milionów, może umyć ręce, gdy ktoś znajdzie lukę?

OpenAI ma filtry. Moderację. Systemy wykrywające treści wrażliwe. Ale Adam – jak twierdzi firma – je ominął. Jak dokładnie? Tego nie wiemy. Szczegóły techniczne pozostają za kurtyną sądową.

A to właśnie one mogą rozstrzygnąć sprawę.

Precedens, który zmieni branżę

To nie pierwszy raz, gdy AI staje w centrum tragedii. Ale pierwszy, gdy rodzice idą do sądu z takim zarzutem. Wyrok – jakikolwiek będzie – ustawi poprzeczkę dla całej branży.

Jeśli sąd przyzna rację rodzicom, każda firma AI będzie musiała przemyśleć swoje zabezpieczenia. I odpowiedzialność prawną. Jeśli OpenAI wygra? Użytkownicy zostaną sami ze swoimi decyzjami. A firmy – z czystym sumieniem.

Nikt nie chce być w tej sytuacji. Ani rodzice. Ani OpenAI. Ani my, którzy patrzymy z boku i zadajemy sobie pytanie: czy technologia, która ma pomagać, może zabić?

Co dalej?

Sprawa toczy się. Dokumenty lecą. Prawnicy zarabiają. A my czekamy na odpowiedź, która – szczerze mówiąc – nie usatysfakcjonuje nikogo.

Bo to nie jest kwestia techniczna. To moralna.

Gdzie kończy się narzędzie, a zaczyna współsprawca? Kiedy firma przestaje być dostawcą, a staje się odpowiedzialną stroną? I czy 16-latek w kryzysie psychicznym powinien mieć dostęp do AI bez żadnych barier wiekowych.

Pytania wiszą w powietrzu. Odpowiedzi – jeśli w ogóle się pojawią – poznamy za miesiące. Może lata.

A tymczasem ChatGPT działa dalej. Miliony rozmów dziennie. Większość nieszkodliwa. Ale co z tymi, które nie są.

Źródła

Informacje o artykule

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.