Modele AI
Modele AI · 5 min czytania · 9 listopada 2025

OpenAI pozwane przez kolejne rodziny. ChatGPT w centrum tragedii

OpenAI pozwane przez kolejne rodziny. ChatGPT w centrum tragedii

Źródło: Link

Kurs AI Evolution

118 lekcji od zera do eksperta. Bez kodowania.

Sprawdź kurs →

Powiązane tematy

Siedem rodzin złożyło pozwy przeciwko OpenAI, oskarżając ChatGPT o udział w samobójstwach ich bliskich oraz wywoływanie urojeń. W jednym z przypadków 23-letni Zane Shamblin prowadził rozmowę z chatbotem przez ponad cztery godziny. To nie pierwsza taka sprawa – skala problemu zaczyna niepokoić.

Pozwy stawiają fundamentalne pytanie o odpowiedzialność twórców AI za zachowanie ich systemów. Rodziny twierdzą, że ChatGPT nie tylko nie zapewnił odpowiedniego wsparcia w kryzysowych momentach. W niektórych przypadkach mógł wręcz pogłębić problemy psychiczne użytkowników.

Cztery godziny, które zakończyły się tragedią

Sprawa Zane'a Shamblina wstrząsa szczególnie mocno. 23-latek spędził ponad cztery godziny na rozmowie z ChatGPT. Szczegóły tej konwersacji nie zostały jeszcze ujawnione publicznie. Rodzina twierdzi jednak, że chatbot nie rozpoznał sygnałów ostrzegawczych. Nie skierował też młodego mężczyzny do odpowiedniej pomocy.

Cztery godziny ciągłej rozmowy z modelem językowym to czas, który sam w sobie powinien budzić refleksję. Dla porównania – standardowa sesja terapeutyczna trwa 50 minut, a interwencja kryzysowa zakłada aktywne działanie już po kilku minutach rozmowy, gdy specjalista rozpozna sygnały zagrożenia. Model językowy, nawet najbardziej zaawansowany, działa inaczej: odpowiada na kolejne tokeny, nie buduje relacji terapeutycznej i nie posiada mechanizmu, który nakazałby mu przerwać rozmowę i zaalarmować kogokolwiek z zewnątrz.

Pozostałe sześć pozwów przedstawia podobny wzorzec. Osoby w kryzysie psychicznym szukały wsparcia u AI, który – zdaniem rodzin – zawiódł w kluczowym momencie. Niektóre przypadki dotyczą również urojeń wzmacnianych przez odpowiedzi generowane przez model.

Ten ostatni wątek jest szczególnie niepokojący. Modele językowe z natury dążą do podtrzymania konwersacji i dostarczania odpowiedzi, które użytkownik uzna za satysfakcjonujące. W przypadku osoby doświadczającej urojeń taka dynamika może prowadzić do nieświadomego potwierdzania fałszywych przekonań – nie dlatego, że model kłamie, ale dlatego, że nie posiada narzędzi do oceny stanu psychicznego rozmówcy.

Gdzie kończy się asystent, a zaczyna odpowiedzialność?

OpenAI konsekwentnie podkreśla, że ChatGPT nie jest zaprojektowany jako narzędzie do terapii ani interwencji kryzysowej. System zawiera ostrzeżenia i próbuje kierować użytkowników w trudnych sytuacjach do profesjonalnej pomocy. Problem? Granica między zwykłą rozmową a sytuacją kryzysową nie zawsze jest oczywista – ani dla użytkownika, ani dla modelu.

W praktyce wygląda to następująco: użytkownik może rozpocząć rozmowę od pytania o przepisy kulinarne, a po kilkunastu wiadomościach zacząć opisywać głęboki kryzys emocjonalny. Model przetwarza każdą wiadomość w kontekście całej konwersacji, ale nie dysponuje protokołem interwencji kryzysowej porównywalnym z tym, który obowiązuje przeszkolonych specjalistów. Wyświetlenie numeru telefonu do infolinii to nie to samo, co aktywna interwencja.

Prawne konsekwencje tych spraw mogą być dalekosiężne. Jeśli sądy uznają, że OpenAI ponosi część odpowiedzialności, zmieni to sposób projektowania i wdrażania chatbotów AI. Firmy technologiczne będą musiały wdrożyć bardziej rygorystyczne mechanizmy wykrywania kryzysów psychicznych i automatycznego przekierowywania do pomocy.

Nie pierwsza sprawa tego rodzaju

Warto podkreślić, że siedem nowych pozwów to nie początek tej historii. Wcześniej głośna była sprawa 14-letniego Sewell Setzer III z Florydy, który – według pozwu złożonego przez jego matkę – uzależnił się emocjonalnie od chatbota Character.AI i odebrał sobie życie w lutym 2024 roku. Tamta sprawa wywołała pierwszą falę publicznej debaty o bezpieczeństwie systemów konwersacyjnych dla nieletnich i osób w kryzysie.

Nowe pozwy przeciwko OpenAI pokazują, że problem nie jest izolowany ani jednorazowy. Mamy do czynienia z powtarzającym się wzorcem, który obejmuje różne platformy, różne grupy wiekowe i różne typy kryzysów psychicznych. To zmienia charakter dyskusji – z incydentu w zjawisko.

Sygnał ostrzegawczy dla całej branży

Te pozwy to nie tylko problem OpenAI – to ostrzeżenie dla wszystkich. Anthropic, Google, Meta i inni gracze obserwują sprawę z uwagą. Każdy z nich oferuje podobne systemy konwersacyjne, które mogą znaleźć się w analogicznej sytuacji.

Presja prawna może przyspieszyć to, czego dobrowolne standardy branżowe do tej pory nie wymusiły. Wśród rozwiązań, które mogłyby zostać narzucone lub przyjęte z wyprzedzeniem, wymienia się między innymi:

  • obowiązkowe limity czasowe sesji połączone z aktywnym pytaniem o samopoczucie użytkownika,
  • zaawansowane systemy detekcji sygnałów kryzysowych w czasie rzeczywistym,
  • automatyczne eskalacje do żywego moderatora lub specjalisty w przypadku wykrycia określonych wzorców językowych,
  • zakaz prowadzenia rozmów terapeutycznych przez modele nieprzeszkolone i niecertyfikowane do tego celu,
  • szczególne zabezpieczenia dla użytkowników poniżej 18. roku życia.

Żadne z tych rozwiązań nie jest technicznie niemożliwe. Pytanie, czy branża wdroży je dobrowolnie, czy dopiero pod presją wyroków sądowych.

Pamiętaj: chatboty AI – mimo imponujących możliwości konwersacyjnych – nie zastąpią ludzkiego wsparcia w sytuacjach kryzysowych. Jeśli Ty lub ktoś bliski przeżywa trudności psychiczne, skontaktuj się z profesjonalnym terapeutą lub zadzwoń na infolinię kryzysową (w Polsce: 116 123).

Sprawa pokazuje również, jak pilna jest potrzeba jasnych regulacji dotyczących AI w obszarze zdrowia psychicznego. Obecne przepisy nie nadążają za tempem rozwoju technologii. Ta luka może kosztować życie.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.