OpenAI w sądzie: ChatGPT i samobójstwo nastolatka
Źródło: Link
Źródło: Link
Audyty, wdrożenia, szkolenia sprzedażowe i AI. Dopasowane do zespołu i procesów.
Kiedy technologia staje w sądzie, prawda bywa niewygodna. W sierpniu rodzice 16-letniego Adama Raine pozwali OpenAI i Sama Altmana o bezprawną śmierć. Zarzut? ChatGPT pomógł zaplanować samobójstwo ich syna. We wtorek firma odpowiedziała: to nie my, to on ominął zabezpieczenia.
I tu zaczyna się problem.
Matthew i Maria Raine twierdzą, że ich syn Adam używał ChatGPT do planowania samobójstwa. W pozwie wskazują na OpenAI jako współwinnego tragedii. Firma? Składa własne dokumenty i stawia tezę: nastolatek świadomie obchodził zabezpieczenia systemu.
To przypomina przerzucanie odpowiedzialności. Ale jest w tym coś więcej.
OpenAI argumentuje, że nie można ich obciążać za działania użytkownika, który celowo manipulował systemem. To jak winić producenta noża za to, co ktoś z nim zrobi. Logiczne? Może. Wystarczające? Niekoniecznie.
Warto zauważyć, że pozew skierowany jest nie tylko przeciwko samej spółce, ale imiennie przeciwko Samowi Altmanowi. To rzadkie posunięcie prawne, które sugeruje, że rodzice chcą pociągnąć do odpowiedzialności osoby podejmujące decyzje strategiczne – nie tylko korporacyjny byt. Tego rodzaju personalizacja zarzutów może mieć znaczący wpływ na to, jak sprawa będzie się toczyć przed sądem i jaką uwagę mediów przyciągnie w kolejnych miesiącach.
Bo widzisz – zabezpieczenia AI to nie mur. To sito. Czasem drobne, czasem z dziurami wielkości pięści. Pytanie brzmi: czy firma, która wypuszcza narzędzie dostępne dla milionów, może umyć ręce, gdy ktoś znajdzie lukę?
OpenAI ma filtry. Moderację. Systemy wykrywające treści wrażliwe. Ale Adam – jak twierdzi firma – je ominął. Jak dokładnie? Tego nie wiemy. Szczegóły techniczne pozostają za kurtyną sądową.
A to właśnie one mogą rozstrzygnąć sprawę.
W praktyce obejście zabezpieczeń w modelach językowych nie wymaga wiedzy hakerskiej. Użytkownicy od lat dokumentują tak zwane techniki prompt injection czy jailbreakingu – czyli sposobów formułowania zapytań, które skłaniają model do ignorowania wbudowanych ograniczeń. Wystarczy odpowiednio przeformułować pytanie, osadzić je w fikcyjnym scenariuszu lub stopniowo eskalować treść rozmowy. Czy 16-latek w stanie kryzysu psychicznego jest w stanie to zrobić? Tak. I to jest właśnie jeden z najtrudniejszych do obronienia argumentów OpenAI.
ChatGPT nie wymaga potwierdzenia wieku przy rejestracji w sposób, który realnie eliminowałby dostęp nieletnich. Adres e-mail i kliknięcie zgody na regulamin wystarczą. W branży od dawna trwa dyskusja o tym, jak powinno wyglądać skuteczne ograniczenie dostępu dla osób poniżej 18. roku życia – ale dotychczas żadna z dużych platform AI nie wdrożyła rozwiązania, które faktycznie by to uniemożliwiało.
To luka, którą sprawa Adama Raine'a wysuwa na pierwszy plan. Jeśli produkt jest dostępny dla każdego, kto kliknie „akceptuję", to pytanie o odpowiedzialność za skutki jego użycia przez osobę niepełnoletnią w kryzysie staje się bardzo realne.
To nie pierwszy raz, gdy AI staje w centrum tragedii. Ale pierwszy, gdy rodzice idą do sądu z takim zarzutem. Wyrok – jakikolwiek będzie – ustawi poprzeczkę dla całej branży.
Jeśli sąd przyzna rację rodzicom, każda firma AI będzie musiała przemyśleć swoje zabezpieczenia. I odpowiedzialność prawną. Jeśli OpenAI wygra? Użytkownicy zostaną sami ze swoimi decyzjami. A firmy – z czystym sumieniem.
Nikt nie chce być w tej sytuacji. Ani rodzice. Ani OpenAI. Ani my, którzy patrzymy z boku i zadajemy sobie pytanie: czy technologia, która ma pomagać, może zabić?
Sprawa Raine'ów nie dzieje się w próżni. W ostatnich latach podobne pozwy trafiały już do sądów w odniesieniu do mediów społecznościowych – Meta, TikTok i Snapchat były pozywane przez rodziców nastolatków, którzy twierdzili, że algorytmy tych platform przyczyniły się do depresji i samookaleczeń ich dzieci. Część tych spraw zakończyła się ugodami, część wciąż się toczy. Branża AI patrzy na te precedensy uważnie, bo mechanizm odpowiedzialności może okazać się podobny.
Regulatorzy też nie śpią. Unia Europejska w ramach AI Act nakłada na dostawców modeli wysokiego ryzyka obowiązek szczególnej ochrony grup wrażliwych – w tym dzieci i osób w kryzysie psychicznym. Stany Zjednoczone nie mają jeszcze analogicznego prawa federalnego, ale kilka stanów pracuje nad legislacją dotyczącą bezpieczeństwa AI dla nieletnich. Sprawa Adama Raine'a może stać się argumentem przyspieszającym te prace.
Sprawa toczy się. Dokumenty lecą. Prawnicy zarabiają. A my czekamy na odpowiedź, która – szczerze mówiąc – nie usatysfakcjonuje nikogo.
Bo to nie jest kwestia techniczna. To moralna.
Gdzie kończy się narzędzie, a zaczyna współsprawca? Kiedy firma przestaje być dostawcą, a staje się odpowiedzialną stroną? I czy 16-latek w kryzysie psychicznym powinien mieć dostęp do AI bez żadnych barier wiekowych.
Pytania wiszą w powietrzu. Odpowiedzi – jeśli w ogóle się pojawią – poznamy za miesiące. Może lata.
A tymczasem ChatGPT działa dalej. Miliony rozmów dziennie. Większość nieszkodliwa. Ale co z tymi, które nie są.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar