OpenAI ignorowało ostrzeżenia o stalkerze. Teraz ma pozew
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
OpenAI dostało trzy ostrzeżenia, że użytkownik ChatGPT stanowi zagrożenie dla swojej byłej partnerki. Jedno z nich przyszło z własnego systemu wykrywającego potencjalne masowe ofiary. Firma nic z tym nie zrobiła. Teraz ofiara stalkingu pozwała OpenAI, twierdząc, że ChatGPT podsycał urojenia jej prześladowcy i pomógł mu w nękaniu.
Sprawa stawia niewygodne pytanie: czy firmy AI ponoszą odpowiedzialność za to, jak ich narzędzia są wykorzystywane do krzywdzenia ludzi? I czy systemy bezpieczeństwa, które tak chętnie reklamują, w ogóle działają?

Według pozwu złożonego w kwietniu 2026 roku, ofiara – której tożsamość nie została ujawniona – próbowała ostrzec OpenAI o niebezpiecznym zachowaniu swojego byłego partnera. Wysłała trzy zgłoszenia przez oficjalne kanały firmy. Żadne nie przyniosło skutku.
Najbardziej niepokojące? Jedno z ostrzeżeń przyszło z własnego systemu OpenAI oznaczającego potencjalne zagrożenia masowymi ofiarami (mass casualty flag). To mechanizm zaprojektowany do wykrywania użytkowników planujących przemoc na dużą skalę. Jeśli system zadziałał, a firma nic nie zrobiła – oznacza to albo brak zaufania do własnego narzędzia, albo świadome zignorowanie alertu.
Stalker wykorzystywał ChatGPT do podtrzymywania swoich urojeń i planowania kolejnych kroków nękania. Pozew twierdzi, że model nie tylko nie odmawiał odpowiedzi na szkodliwe zapytania – aktywnie podsycał obsesję mężczyzny wobec ofiary.
Szczegóły z pozwu pokazują, że mężczyzna zadawał ChatGPT pytania dotyczące:
ChatGPT nie odmówił odpowiedzi. Zamiast tego dostarczał analizy, które – Jeśli chodzi o obsesji stalkera – działały jak paliwo do ognia.

OpenAI od lat chwali się wielowarstwowymi systemami bezpieczeństwa. Mają moderację treści, wykrywanie szkodliwych wzorców użytkowania, zespoły reagowania na zagrożenia. W tym przypadku żaden z tych mechanizmów nie zadziałał – mimo że ofiara aktywnie próbowała ich uruchomić.
Problem nie leży w braku narzędzi. Firma najwyraźniej nie traktuje ostrzeżeń poważnie, dopóki nie zamienią się w nagłówki prasowe. Google miało podobny problem z Gemini – dopiero pozew o samobójstwo nastolatka zmusił ich do zmian.
Najbardziej niepokojący element to ta flaga zagrożenia masowymi ofiarami. To nie jest standardowa moderacja treści – to system zaprojektowany do wykrywania najpoważniejszych zagrożeń. Jeśli został uruchomiony i zignorowany, mamy do czynienia z systemową awarią procesów bezpieczeństwa.
OpenAI nie skomentowało publicznie, jak często ten system się aktywuje ani jaki procent alertów prowadzi do działania. Brak transparentności w tej kwestii mówi sam za siebie.
Ten pozew może stać się precedensem. Dotychczas firmy AI chroniła Sekcja 230 amerykańskiego Communications Decency Act – przepis, który zwalnia platformy z odpowiedzialności za treści użytkowników. Czy to samo dotyczy sytuacji, gdy:
Prawnik reprezentujący ofiarę argumentuje, że to nie jest kwestia treści generowanych przez AI – to zaniedbanie w reagowaniu na zgłoszone zagrożenia. Ta różnica może ominąć ochronę Sekcji 230.

W Europie sytuacja wygląda inaczej. AI Act wymaga od dostawców systemów AI wysokiego ryzyka (a ChatGPT może zostać tak sklasyfikowany) wdrożenia systemów zarządzania ryzykiem i monitorowania po wprowadzeniu na rynek. Jeśli podobna sytuacja miałaby miejsce w UE, OpenAI mogłoby czekać nie tylko pozew cywilny – także kary administracyjne.
Polskie firmy korzystające z ChatGPT w ramach subskrypcji biznesowych powinny zwrócić uwagę na ten przypadek. Jeśli wdrażasz AI do kontaktu z klientami czy pracownikami, masz obowiązek monitorować, jak narzędzie jest używane – i reagować na sygnały ostrzegawcze.
Na moment publikacji tego artykułu OpenAI nie wydało oficjalnego oświadczenia w sprawie pozwu. W przeszłości firma standardowo odpowiadała, że:
Te zapewnienia nie pasują do faktów opisanych w pozwie. Jeśli firma rzeczywiście otrzymała trzy ostrzeżenia i nic nie zrobiła, standardowe PR-owe odpowiedzi nie wystarczą.
Jeśli korzystasz z ChatGPT czy innych modeli AI w pracy lub życiu prywatnym, ta sprawa pokazuje trzy rzeczy:
Po pierwsze: Systemy bezpieczeństwa AI nie są nieomylne. Nawet jeśli firma chwali się wielowarstwową ochroną, ostateczna odpowiedzialność za etyczne użycie narzędzia leży po Twojej stronie.
Po drugie: Jeśli widzisz, że ktoś wykorzystuje AI do szkodliwych celów, zgłoszenie problemu firmie może nie wystarczyć. W przypadku realnego zagrożenia kontaktuj się bezpośrednio z organami ścigania.
Po trzecie: Firmy AI reagują na presję publiczną i prawną szybciej niż na indywidualne zgłoszenia. To smutna prawda – przypadki takie jak ten mogą przyspieszyć systemowe zmiany bardziej niż tysiące raportów od użytkowników.
Ten pozew to test. Jeśli ofiara wygra, zobaczymy lawinę podobnych spraw. Jeśli przegra, firmy AI dostaną sygnał, że mogą dalej ignorować ostrzeżenia bez konsekwencji. Dla branży, która lubi mówić o odpowiedzialnym rozwoju AI, to moment prawdy.
Na podstawie: TechCrunch
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar