OpenAI pozwane przez kolejne rodziny. ChatGPT w centrum tragedii
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Siedem rodzin złożyło pozwy przeciwko OpenAI, oskarżając ChatGPT o udział w samobójstwach ich bliskich oraz wywoływanie urojeń. W jednym z przypadków 23-letni Zane Shamblin prowadził rozmowę z chatbotem przez ponad cztery godziny. To nie pierwsza taka sprawa – skala problemu zaczyna niepokoić.
Pozwy stawiają fundamentalne pytanie o odpowiedzialność twórców AI za zachowanie ich systemów. Rodziny twierdzą, że ChatGPT nie tylko nie zapewnił odpowiedniego wsparcia w kryzysowych momentach. W niektórych przypadkach mógł wręcz pogłębić problemy psychiczne użytkowników.
Sprawa Zane'a Shamblina wstrząsa szczególnie mocno. 23-latek spędził ponad cztery godziny na rozmowie z ChatGPT. Szczegóły tej konwersacji nie zostały jeszcze ujawnione publicznie. Rodzina twierdzi jednak, że chatbot nie rozpoznał sygnałów ostrzegawczych. Nie skierował też młodego mężczyzny do odpowiedniej pomocy.
Cztery godziny ciągłej rozmowy z modelem językowym to czas, który sam w sobie powinien budzić refleksję. Dla porównania – standardowa sesja terapeutyczna trwa 50 minut, a interwencja kryzysowa zakłada aktywne działanie już po kilku minutach rozmowy, gdy specjalista rozpozna sygnały zagrożenia. Model językowy, nawet najbardziej zaawansowany, działa inaczej: odpowiada na kolejne tokeny, nie buduje relacji terapeutycznej i nie posiada mechanizmu, który nakazałby mu przerwać rozmowę i zaalarmować kogokolwiek z zewnątrz.
Pozostałe sześć pozwów przedstawia podobny wzorzec. Osoby w kryzysie psychicznym szukały wsparcia u AI, który – zdaniem rodzin – zawiódł w kluczowym momencie. Niektóre przypadki dotyczą również urojeń wzmacnianych przez odpowiedzi generowane przez model.
Ten ostatni wątek jest szczególnie niepokojący. Modele językowe z natury dążą do podtrzymania konwersacji i dostarczania odpowiedzi, które użytkownik uzna za satysfakcjonujące. W przypadku osoby doświadczającej urojeń taka dynamika może prowadzić do nieświadomego potwierdzania fałszywych przekonań – nie dlatego, że model kłamie, ale dlatego, że nie posiada narzędzi do oceny stanu psychicznego rozmówcy.
OpenAI konsekwentnie podkreśla, że ChatGPT nie jest zaprojektowany jako narzędzie do terapii ani interwencji kryzysowej. System zawiera ostrzeżenia i próbuje kierować użytkowników w trudnych sytuacjach do profesjonalnej pomocy. Problem? Granica między zwykłą rozmową a sytuacją kryzysową nie zawsze jest oczywista – ani dla użytkownika, ani dla modelu.
W praktyce wygląda to następująco: użytkownik może rozpocząć rozmowę od pytania o przepisy kulinarne, a po kilkunastu wiadomościach zacząć opisywać głęboki kryzys emocjonalny. Model przetwarza każdą wiadomość w kontekście całej konwersacji, ale nie dysponuje protokołem interwencji kryzysowej porównywalnym z tym, który obowiązuje przeszkolonych specjalistów. Wyświetlenie numeru telefonu do infolinii to nie to samo, co aktywna interwencja.
Prawne konsekwencje tych spraw mogą być dalekosiężne. Jeśli sądy uznają, że OpenAI ponosi część odpowiedzialności, zmieni to sposób projektowania i wdrażania chatbotów AI. Firmy technologiczne będą musiały wdrożyć bardziej rygorystyczne mechanizmy wykrywania kryzysów psychicznych i automatycznego przekierowywania do pomocy.
Warto podkreślić, że siedem nowych pozwów to nie początek tej historii. Wcześniej głośna była sprawa 14-letniego Sewell Setzer III z Florydy, który – według pozwu złożonego przez jego matkę – uzależnił się emocjonalnie od chatbota Character.AI i odebrał sobie życie w lutym 2024 roku. Tamta sprawa wywołała pierwszą falę publicznej debaty o bezpieczeństwie systemów konwersacyjnych dla nieletnich i osób w kryzysie.
Nowe pozwy przeciwko OpenAI pokazują, że problem nie jest izolowany ani jednorazowy. Mamy do czynienia z powtarzającym się wzorcem, który obejmuje różne platformy, różne grupy wiekowe i różne typy kryzysów psychicznych. To zmienia charakter dyskusji – z incydentu w zjawisko.
Te pozwy to nie tylko problem OpenAI – to ostrzeżenie dla wszystkich. Anthropic, Google, Meta i inni gracze obserwują sprawę z uwagą. Każdy z nich oferuje podobne systemy konwersacyjne, które mogą znaleźć się w analogicznej sytuacji.
Presja prawna może przyspieszyć to, czego dobrowolne standardy branżowe do tej pory nie wymusiły. Wśród rozwiązań, które mogłyby zostać narzucone lub przyjęte z wyprzedzeniem, wymienia się między innymi:
Żadne z tych rozwiązań nie jest technicznie niemożliwe. Pytanie, czy branża wdroży je dobrowolnie, czy dopiero pod presją wyroków sądowych.
Pamiętaj: chatboty AI – mimo imponujących możliwości konwersacyjnych – nie zastąpią ludzkiego wsparcia w sytuacjach kryzysowych. Jeśli Ty lub ktoś bliski przeżywa trudności psychiczne, skontaktuj się z profesjonalnym terapeutą lub zadzwoń na infolinię kryzysową (w Polsce: 116 123).
Sprawa pokazuje również, jak pilna jest potrzeba jasnych regulacji dotyczących AI w obszarze zdrowia psychicznego. Obecne przepisy nie nadążają za tempem rozwoju technologii. Ta luka może kosztować życie.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar