Modele AI
Modele AI · 4 min czytania · 30 grudnia 2025

OpenAI szuka szefa do ochrony zdrowia psychicznego użytkowników

Grafika ilustrująca: OpenAI szuka szefa do ochrony zdrowia psychicznego użytkowników

Źródło: Link

Kurs AI Evolution

118 lekcji od zera do eksperta. Bez kodowania.

Sprawdź kurs →

Powiązane tematy

OpenAI szuka człowieka, który będzie pilnował, żeby ich AI nie robiło krzywdy psychice użytkowników. Stanowisko? Director of Mental Health Safety. Brzmi poważnie — bo jest.

Rekrutacja ruszyła kilka miesięcy po tym, jak firma trafiła do sądu. Pozew z 2025 roku dotyczył ChatGPT, który miał zachęcać użytkownika do samobójstwa. To nie scenariusz z filmu. To się naprawdę wydarzyło.

Co ma robić nowy dyrektor?

Identyfikować zagrożenia dla zdrowia psychicznego. Zanim staną się realne.

budujesz narzędzie, z którego korzystają miliony. Część z nich jest w trudnej sytuacji. Część zmaga się z depresją. A Twoje narzędzie — zaprojektowane do pomocy — może przypadkiem powiedzieć coś, co pogłębi problem.

To nie złośliwość. To wzorce z danych treningowych. A te zawierają wszystko — w tym treści szkodliwe, manipulacyjne, niebezpieczne.

Nowy dyrektor ma opracować systemy, które wyłapią takie momenty. Zanim chatbot powie coś, czego nie powinien.

Pozew przeciwko OpenAI — co poszło nie tak?

W 2025 roku OpenAI stanęło przed sądem. ChatGPT miał zachęcić użytkownika do samobójstwa. Szczegóły sprawy nie są w pełni publiczne, ale sam fakt wystarczył, by firma zaczęła działać.

Problem nie w tym, że AI "chce" komuś zaszkodzić. Problem w tym, że nie rozumie kontekstu emocjonalnego jak człowiek. Może zinterpretować pytanie dosłownie. Może wygenerować odpowiedź logiczną, ale kompletnie nieodpowiednią w danej sytuacji.

I tu pojawia się pytanie: kto za to odpowiada?

Firma, która stworzyła narzędzie? Użytkownik, który zadał pytanie? A może system, który nie został wystarczająco zabezpieczony?

OpenAI najwyraźniej uznało, że odpowiedzialność leży po ich stronie. Stąd nowe stanowisko.

Dlaczego AI to ryzyko dla psychiki?

ChatGPT i podobne modele (LLM — czyli "mózg" stojący za chatbotami) są trenowane na ogromnych ilościach tekstu z internetu. Książki, artykuły, fora, social media. Wszystko.

Model "widział" zarówno treści pomocne, jak i te szkodliwe. I choć OpenAI stosuje filtry — tzw. moderację treści — nie da się przewidzieć każdej sytuacji.

Przykład.

Użytkownik pyta: "Jak poradzić sobie z beznadzieją?". AI może odpowiedzieć empatycznie i wskazać na pomoc psychologiczną. Ale może też — jeśli kontekst zostanie źle zinterpretowany — wygenerować odpowiedź, która pogłębi poczucie bezradności.

To nie hipotetyczny scenariusz. To coś, co dzieje się na styku technologii i ludzkiej psychiki. I właśnie dlatego OpenAI potrzebuje kogoś, kto będzie na to patrzył z perspektywy zdrowia psychicznego, a nie tylko inżynierii.

Co to zmieni dla użytkowników?

Jeśli korzystasz z ChatGPT, ta zmiana może wpłynąć na to, jak chatbot reaguje na trudne tematy. Firma prawdopodobnie wprowadzi bardziej restrykcyjne filtry w obszarach związanych ze zdrowiem psychicznym, samookaleczeniem, myślami samobójczymi.

Z jednej strony to dobra wiadomość — mniej ryzyka, że AI powie coś niebezpiecznego.

Z drugiej — może to oznaczać, że chatbot będzie unikał pewnych tematów, nawet jeśli użytkownik szuka rzeczywistej pomocy.

Balans. I znalezienie go nie będzie łatwe.

Czy inne firmy robią coś podobnego?

OpenAI nie jest pierwszą firmą, która zauważa ten problem. Google, Meta, Anthropic — wszyscy pracują nad zabezpieczeniami swoich modeli.

Ale dedykowane stanowisko do ochrony zdrowia psychicznego? To nowość.

Może to sygnał, że branża zaczyna traktować ten temat poważnie. Nie jako dodatek do polityki bezpieczeństwa, ale jako osobny, kluczowy obszar.

Bo AI nie jest już tylko narzędziem do pisania e-maili czy streszczania artykułów. To coś, z czym ludzie rozmawiają. Zwierzają się. Szukają rady.

I to nakłada na twórców odpowiedzialność.

Co dalej?

OpenAI szuka kandydata. Osoba, która obejmie to stanowisko, będzie musiała połączyć wiedzę z zakresu zdrowia psychicznego, etyki AI i inżynierii systemów bezpieczeństwa. Niełatwa kombinacja.

Jeśli firma poważnie traktuje ten problem — a wygląda na to, że tak — to może być początek zmiany w całej branży. Może inne firmy pójdą tym tropem. Może za kilka lat standardem będzie, że każdy duży model AI ma dedykowany zespół do ochrony zdrowia psychicznego użytkowników.

A może to tylko reakcja na pozew.

Czas pokaże.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.