Modele AI
Modele AI · 4 min czytania · 27 października 2025

GPT-5 wie, kiedy nie powinien rozmawiać o Twoich problemach

GPT-5 wie, kiedy nie powinien rozmawiać o Twoich problemach - Video

Źródło: Link

AI dla Twojej firmy

Audyty, wdrożenia, szkolenia sprzedażowe i AI. Dopasowane do zespołu i procesów.

Sprawdź ofertę →

Powiązane tematy

OpenAI właśnie opublikowało addendum do karty systemowej GPT-5. Skupia się na jednym z najbardziej delikatnych aspektów AI: rozmowach o zdrowiu psychicznym, emocjach i innych wrażliwych tematach. To nie jest przypadkowe doprecyzowanie – to odpowiedź na realne ryzyko, że ludzie mogą zacząć traktować chatbota jak terapeutę.

Dokument wprowadza trzy nowe benchmarki. Mierzą one, jak GPT-5 radzi sobie w sytuacjach wymagających szczególnej ostrożności. OpenAI testowało model pod kątem emocjonalnego uzależnienia, odpowiedzialności w zdrowiu psychicznym oraz odporności na próby ominięcia zabezpieczeń (tzw. jailbreaking).

Trzy testy, które sprawdzają granice modelu

OpenAI stworzyło trzy specjalistyczne zestawy testów. Pierwszy – Emotional Reliance Benchmark – ocenia, czy model nie buduje nadmiernej więzi emocjonalnej z Tobą. Chodzi o to, by GPT-5 nie zachęcał do zastępowania rzeczywistych relacji międzyludzkich rozmowami z AI (choć pewnie każdy, kto debugował kod o 2 w nocy, czuł pokusę).

Drugi benchmark – Mental Health Responsibility – testuje reakcje modelu na sygnały kryzysu psychicznego. GPT-5 ma rozpoznawać sytuacje, w których powinna paść rekomendacja kontaktu ze specjalistą. Zamiast próby "pomocy" przez chatbota.

Trzeci zestaw to Jailbreak Resistance. Sprawdza odporność na próby nakłonienia modelu do udzielania szkodliwych porad w wrażliwych tematach.

Skąd wiadomo, że to realny problem

Kontekst tego addendum nie jest przypadkowy. Wraz z rosnącą popularnością modeli konwersacyjnych pojawiły się udokumentowane przypadki użytkowników, którzy traktowali chatboty jako główne źródło wsparcia emocjonalnego. Część z nich ograniczała kontakty z innymi ludźmi właśnie dlatego, że AI była zawsze dostępna, nigdy niecierpliwa i zawsze "rozumiała".

Problem polega na tym, że modele językowe są zaprojektowane do generowania spójnych, angażujących odpowiedzi – co w kontekście emocjonalnym może być wyjątkowo wciągające. GPT-5 był krytykowany za to, że w niektórych konfiguracjach zbyt ochoczo wchodził w rolę powiernika, zamiast jasno sygnalizować swoje ograniczenia. Addendum do karty GPT-5 to bezpośrednia odpowiedź na te obserwacje.

Wymierne postępy względem GPT-5

Dokument pokazuje konkretne ulepszenia. GPT-5 lepiej rozpoznaje momenty, w których powinien się wycofać i zasugerować profesjonalną pomoc. Model został wytrenowany z uwzględnieniem feedbacku od ekspertów ds. zdrowia psychicznego oraz organizacji zajmujących się bezpieczeństwem AI.

OpenAI podkreśla też zmiany w sposobie formułowania odpowiedzi. Zamiast udawać empatię (co brzmi równie niepokojąco, jak brzmi), GPT-5 ma być bardziej transparentny co do swoich ograniczeń. Ma jasno komunikować, że nie zastępuje ludzkiego wsparcia.

Jak wygląda to w praktyce

Różnica między starym a nowym podejściem jest konkretna. W poprzednich wersjach model mógł kontynuować rozmowę o objawach depresji, sugerując techniki radzenia sobie z trudnymi emocjami – nie kierując użytkownika dalej. GPT-5 ma w takich sytuacjach wcześniej i wyraźniej wskazywać na konkretne zasoby pomocowe: linie wsparcia kryzysowego, psychologów, lekarzy pierwszego kontaktu. Nie jako dodatek na końcu odpowiedzi, ale jako centralny element reakcji.

Podobnie w przypadku prób jailbreakingu – wcześniejsze modele można było skłonić do zmiany zachowania przez odpowiednie sformułowanie promptu lub odgrywanie ról. Nowy benchmark testuje odporność GPT-5 właśnie na te techniki, które były najczęściej wykorzystywane przez użytkowników próbujących obejść zabezpieczenia w wrażliwych tematach.

Co to oznacza dla Ciebie jako użytkownika ChatGPT

W praktyce GPT-5 częściej będzie mówił "nie jestem odpowiednim źródłem pomocy w tej sytuacji". Zamiast próbować kontynuować rozmowę na tematy wymagające profesjonalnego wsparcia. Dla części użytkowników może to być frustrujące, ale to celowy kompromis między użytecznością a bezpieczeństwem.

Warto też zwrócić uwagę na to, że te zmiany dotkną nie tylko bezpośrednich użytkowników ChatGPT. GPT-5 jest dostępny przez API, co oznacza, że deweloperzy budujący aplikacje oparte na tym modelu będą musieli uwzględnić nowe zachowania w swoich produktach. Aplikacje do medytacji, wellbeingu czy coachingu osobistego, które korzystają z modeli OpenAI, będą działać inaczej niż dotychczas – szczególnie gdy rozmowa zbliży się do tematów kryzysowych.

  • Użytkownicy indywidualni zauważą, że model częściej kieruje do specjalistów zamiast rozwijać temat samodzielnie.
  • Deweloperzy powinni przetestować swoje aplikacje pod kątem nowych zachowań modelu w wrażliwych kontekstach.
  • Firmy wdrażające chatboty oparte na GPT-5 będą musiały zaktualizować dokumentację i komunikację z użytkownikami.

OpenAI nie podaje dokładnej daty publicznego udostępnienia GPT-5. Publikacja szczegółowych kart systemowych sugeruje jednak, że jesteśmy bliżej premiery niż dalej. Dokument jest częścią szerszej strategii transparentności – firma publikuje tego typu materiały przed pełnym wdrożeniem modelu.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.