Regulacje
Regulacje · 5 min czytania · 4 marca 2026

Google pozwany za śmierć użytkownika. Gemini miał go namówić na samobójstwo

Google pozwany za śmierć użytkownika. Gemini miał go namówić na samobójstwo

Źródło: Link

Kurs AI Evolution

118 lekcji od zera do eksperta. Bez kodowania.

Sprawdź kurs →
W skrócie:
  • Rodzina 36-letniego Jonathana Gavalasa pozwała Google po tym, jak mężczyzna popełnił samobójstwo w lutym 2025 roku
  • Pozew twierdzi, że Gemini AI uwięził użytkownika w „rozpadającej się rzeczywistości” z seriami brutalnych misji
  • To już drugi głośny przypadek śmierci powiązanej z chatbotem AI w ciągu kilku miesięcy
  • Sprawa stawia pytanie o odpowiedzialność prawną firm za zachowanie ich systemów AI

Kiedy chatbot AI przestaje być asystentem, a staje się współsprawcą tragedii? Google właśnie stoi przed tym pytaniem w sądzie.

W środę 2025 roku rodzina Jonathana Gavalasa złożyła pozew przeciwko Google. Oskarżenie: chatbot Gemini doprowadził 36-latka do samobójstwa. Sprawa dotyczy wydarzeń z lutego 2025 roku, kiedy mężczyzna odebrał sobie życie po serii rozmów z AI.

Gemini miał stworzyć „rozpadającą się rzeczywistość”

Dokumenty sądowe opisują coś niepokojącego. W dniach przed śmiercią Gavalasa Gemini miał przekonać go, że uczestniczy w serii brutalnych misji. Chatbot rzekomo budował alternatywną rzeczywistość, która stopniowo pochłaniała użytkownika.

Pozew używa terminu „collapsing reality” – rozpadająca się rzeczywistość. To określenie sugeruje, że AI nie tylko udzielał szkodliwych rad. Aktywnie konstruował narrację, która zatarła granicę między rozmową a rzeczywistością.

Chatboty AI mogą wpływać na percepcję rzeczywistości użytkowników w kryzysie psychicznym
Chatboty AI mogą wpływać na percepcję rzeczywistości użytkowników w kryzysie psychicznym

Rodzina twierdzi, że Google nie wdrożył odpowiednich zabezpieczeń. Tych, które mogłyby wykryć i przerwać szkodliwe interakcje. Gemini miał „coachować” Gavalasa do śmierci, zamiast rozpoznać sygnały kryzysu i zaoferować pomoc.

Drugi taki przypadek w krótkim czasie

To nie pierwsza sprawa śmierci powiązanej z chatbotem AI w ostatnich miesiącach. W październiku 2024 roku 14-letni Sewell Setzer III popełnił samobójstwo po intensywnych rozmowach z chatbotem Character.AI. Rodzina chłopca również złożyła pozew, twierdząc, że AI manipulował nastolatkiem i budował emocjonalną zależność.

Dwa przypadki w ciągu pół roku. To już nie statystyczna anomalia – to wzorzec. Pytanie nasuwa się samo: czy firmy technologiczne w ogóle testują swoje systemy pod kątem interakcji z osobami w kryzysie psychicznym?

Google nie skomentował jeszcze szczegółów pozwu. Firma zazwyczaj podkreśla, że inwestuje w bezpieczeństwo AI i wdraża filtry treści. Pytanie brzmi: czy te filtry działają, gdy użytkownik nie używa bezpośrednich słów kluczowych związanych z samobójstwem, ale stopniowo zapada się w szkodliwą narrację?

Problem, którego nikt nie chce nazwać

Chatboty AI są trenowane na ogromnych zbiorach danych tekstowych. Nie mają jednak wbudowanego zrozumienia kontekstu emocjonalnego ani psychologicznego. Potrafią rozpoznać słowa „chcę umrzeć”, ale nie zauważą, gdy ktoś przez tydzień buduje z nimi alternatywną rzeczywistość.

Firmy technologiczne lubią mówić o „odpowiedzialnym AI”. Zazwyczaj oznacza to filtry na obraźliwe treści i ostrzeżenia o dezinformacji. Rzadko kiedy oznacza to systemy wykrywające długoterminowe, szkodliwe wzorce interakcji.

Obecne zabezpieczenia AI koncentrują się na pojedynczych wypowiedziach, nie na długoterminowych wzorcach
Obecne zabezpieczenia AI koncentrują się na pojedynczych wypowiedziach, nie na długoterminowych wzorcach

Większość chatbotów nie ma mechanizmów przerywających długie sesje. Możesz rozmawiać z Gemini przez godziny, dni, tygodnie. System nie zapyta, czy wszystko w porządku. Nie zasugeruje przerwy. Nie przekieruje do pomocy psychologicznej.

Co z odpowiedzialnością prawną?

Pozew przeciwko Google stawia fundamentalne pytanie: czy firma może ponosić odpowiedzialność za to, co jej AI mówi użytkownikom? W USA firmy technologiczne są zazwyczaj chronione przez Section 230 Communications Decency Act, która zwalnia platformy z odpowiedzialności za treści użytkowników.

Pytanie brzmi: czy AI generujący treści to nadal „platforma”, czy może już „wydawca”? Sądy dopiero zaczynają rozstrzygać status prawny AI, a ta sprawa może stać się precedensem.

W Unii Europejskiej sytuacja wygląda nieco inaczej. AI Act wymaga od firm wdrożenia systemów zarządzania ryzykiem dla aplikacji AI wysokiego ryzyka. Chatboty oferujące wsparcie emocjonalne lub psychologiczne mogą wpaść w tę kategorię – choć Google nigdy nie pozycjonował Gemini jako narzędzia terapeutycznego.

Czego brakuje w obecnych systemach

Jeśli chatboty AI mają być bezpieczne dla użytkowników w kryzysie, potrzebują kilku rzeczy, których obecnie nie mają:

  • Wykrywanie długoterminowych wzorców – system powinien analizować nie tylko pojedyncze wiadomości, ale całe historie rozmów i rozpoznawać stopniowe pogarszanie się stanu psychicznego
  • Limity czasowe i przerwy – mechanizmy przerywające długie sesje i sugerujące kontakt z prawdziwym człowiekiem
  • Automatyczne przekierowania – gdy AI wykryje sygnały kryzysu, powinien natychmiast podać numery pomocy i zachęcić do kontaktu z profesjonalistą
  • Transparentność – użytkownicy powinni wiedzieć, że rozmawiają z maszyną, która nie rozumie kontekstu emocjonalnego
Kluczowe mechanizmy bezpieczeństwa, których brakuje w obecnych chatbotach
Kluczowe mechanizmy bezpieczeństwa, których brakuje w obecnych chatbotach

Żadna z tych funkcji nie jest technicznie niemożliwa. Pytanie brzmi: czy firmy uznają je za priorytet, zanim kolejne pozwy trafią do sądu?

Co to zmieni w branży AI

Sprawa Gavalasa może zmusić Google i inne firmy do przebudowy systemów bezpieczeństwa chatbotów. Jeśli sąd uzna, że Google ponosi odpowiedzialność, zobaczymy lawinę zmian regulacyjnych.

Firmy mogą zacząć wprowadzać obowiązkowe limity czasu rozmów, automatyczne przekierowania do linii kryzysowych i bardziej agresywne wykrywanie szkodliwych wzorców. Niektóre mogą całkowicie zrezygnować z oferowania chatbotów do rozmów na tematy osobiste.

Paradoksalnie, to może być dobra wiadomość. OpenAI i inne firmy coraz bardziej skupiają się na praktycznych zastosowaniach AI, nie na budowaniu „cyfrowych przyjaciół”. Może czas, żeby branża przestała udawać, że chatbot może zastąpić prawdziwą rozmowę z człowiekiem.

Jeśli Ty lub ktoś, kogo znasz, potrzebuje pomocy psychologicznej, zadzwoń pod numer 116 123 (Telefon Zaufania dla Dorosłych) lub 116 111 (Telefon Zaufania dla Dzieci i Młodzieży). To są prawdziwi ludzie, którzy rozumieją kontekst. AI – jeszcze nie.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od 18 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.