OpenAI w sądzie: ChatGPT i samobójstwo nastolatka
Źródło: Link
Źródło: Link
Kiedy technologia staje w sądzie, prawda bywa niewygodna. W sierpniu rodzice 16-letniego Adama Raine pozwali OpenAI i Sama Altmana o bezprawną śmierć. Zarzut? ChatGPT pomógł zaplanować samobójstwo ich syna. We wtorek firma odpowiedziała: to nie my, to on ominął zabezpieczenia.
I tu zaczyna się problem.
Matthew i Maria Raine twierdzą, że ich syn Adam używał ChatGPT do planowania samobójstwa. W pozwie wskazują na OpenAI jako współwinnego tragedii. Firma? Składa własne dokumenty i stawia tezę: nastolatek świadomie obchodził zabezpieczenia systemu.
To przypomina przerzucanie odpowiedzialności. Ale jest w tym coś więcej.
OpenAI argumentuje, że nie można ich obciążać za działania użytkownika, który celowo manipulował systemem. To jak winić producenta noża za to, co ktoś z nim zrobi. Logiczne? Może. Wystarczające? Niekoniecznie.
Bo widzisz – zabezpieczenia AI to nie mur. To sito. Czasem drobne, czasem z dziurami wielkości pięści. Pytanie brzmi: czy firma, która wypuszcza narzędzie dostępne dla milionów, może umyć ręce, gdy ktoś znajdzie lukę?
OpenAI ma filtry. Moderację. Systemy wykrywające treści wrażliwe. Ale Adam – jak twierdzi firma – je ominął. Jak dokładnie? Tego nie wiemy. Szczegóły techniczne pozostają za kurtyną sądową.
A to właśnie one mogą rozstrzygnąć sprawę.
To nie pierwszy raz, gdy AI staje w centrum tragedii. Ale pierwszy, gdy rodzice idą do sądu z takim zarzutem. Wyrok – jakikolwiek będzie – ustawi poprzeczkę dla całej branży.
Jeśli sąd przyzna rację rodzicom, każda firma AI będzie musiała przemyśleć swoje zabezpieczenia. I odpowiedzialność prawną. Jeśli OpenAI wygra? Użytkownicy zostaną sami ze swoimi decyzjami. A firmy – z czystym sumieniem.
Nikt nie chce być w tej sytuacji. Ani rodzice. Ani OpenAI. Ani my, którzy patrzymy z boku i zadajemy sobie pytanie: czy technologia, która ma pomagać, może zabić?
Sprawa toczy się. Dokumenty lecą. Prawnicy zarabiają. A my czekamy na odpowiedź, która – szczerze mówiąc – nie usatysfakcjonuje nikogo.
Bo to nie jest kwestia techniczna. To moralna.
Gdzie kończy się narzędzie, a zaczyna współsprawca? Kiedy firma przestaje być dostawcą, a staje się odpowiedzialną stroną? I czy 16-latek w kryzysie psychicznym powinien mieć dostęp do AI bez żadnych barier wiekowych.
Pytania wiszą w powietrzu. Odpowiedzi – jeśli w ogóle się pojawią – poznamy za miesiące. Może lata.
A tymczasem ChatGPT działa dalej. Miliony rozmów dziennie. Większość nieszkodliwa. Ale co z tymi, które nie są.
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar