GPT-5 wie, kiedy nie powinien rozmawiać o Twoich problemach
Źródło: Link
Źródło: Link
Audyty, wdrożenia, szkolenia sprzedażowe i AI. Dopasowane do zespołu i procesów.
OpenAI właśnie opublikowało addendum do karty systemowej GPT-5. Skupia się na jednym z najbardziej delikatnych aspektów AI: rozmowach o zdrowiu psychicznym, emocjach i innych wrażliwych tematach. To nie jest przypadkowe doprecyzowanie – to odpowiedź na realne ryzyko, że ludzie mogą zacząć traktować chatbota jak terapeutę.
Dokument wprowadza trzy nowe benchmarki. Mierzą one, jak GPT-5 radzi sobie w sytuacjach wymagających szczególnej ostrożności. OpenAI testowało model pod kątem emocjonalnego uzależnienia, odpowiedzialności w zdrowiu psychicznym oraz odporności na próby ominięcia zabezpieczeń (tzw. jailbreaking).
OpenAI stworzyło trzy specjalistyczne zestawy testów. Pierwszy – Emotional Reliance Benchmark – ocenia, czy model nie buduje nadmiernej więzi emocjonalnej z Tobą. Chodzi o to, by GPT-5 nie zachęcał do zastępowania rzeczywistych relacji międzyludzkich rozmowami z AI (choć pewnie każdy, kto debugował kod o 2 w nocy, czuł pokusę).
Drugi benchmark – Mental Health Responsibility – testuje reakcje modelu na sygnały kryzysu psychicznego. GPT-5 ma rozpoznawać sytuacje, w których powinna paść rekomendacja kontaktu ze specjalistą. Zamiast próby "pomocy" przez chatbota.
Trzeci zestaw to Jailbreak Resistance. Sprawdza odporność na próby nakłonienia modelu do udzielania szkodliwych porad w wrażliwych tematach.
Kontekst tego addendum nie jest przypadkowy. Wraz z rosnącą popularnością modeli konwersacyjnych pojawiły się udokumentowane przypadki użytkowników, którzy traktowali chatboty jako główne źródło wsparcia emocjonalnego. Część z nich ograniczała kontakty z innymi ludźmi właśnie dlatego, że AI była zawsze dostępna, nigdy niecierpliwa i zawsze "rozumiała".
Problem polega na tym, że modele językowe są zaprojektowane do generowania spójnych, angażujących odpowiedzi – co w kontekście emocjonalnym może być wyjątkowo wciągające. GPT-5 był krytykowany za to, że w niektórych konfiguracjach zbyt ochoczo wchodził w rolę powiernika, zamiast jasno sygnalizować swoje ograniczenia. Addendum do karty GPT-5 to bezpośrednia odpowiedź na te obserwacje.
Dokument pokazuje konkretne ulepszenia. GPT-5 lepiej rozpoznaje momenty, w których powinien się wycofać i zasugerować profesjonalną pomoc. Model został wytrenowany z uwzględnieniem feedbacku od ekspertów ds. zdrowia psychicznego oraz organizacji zajmujących się bezpieczeństwem AI.
OpenAI podkreśla też zmiany w sposobie formułowania odpowiedzi. Zamiast udawać empatię (co brzmi równie niepokojąco, jak brzmi), GPT-5 ma być bardziej transparentny co do swoich ograniczeń. Ma jasno komunikować, że nie zastępuje ludzkiego wsparcia.
Różnica między starym a nowym podejściem jest konkretna. W poprzednich wersjach model mógł kontynuować rozmowę o objawach depresji, sugerując techniki radzenia sobie z trudnymi emocjami – nie kierując użytkownika dalej. GPT-5 ma w takich sytuacjach wcześniej i wyraźniej wskazywać na konkretne zasoby pomocowe: linie wsparcia kryzysowego, psychologów, lekarzy pierwszego kontaktu. Nie jako dodatek na końcu odpowiedzi, ale jako centralny element reakcji.
Podobnie w przypadku prób jailbreakingu – wcześniejsze modele można było skłonić do zmiany zachowania przez odpowiednie sformułowanie promptu lub odgrywanie ról. Nowy benchmark testuje odporność GPT-5 właśnie na te techniki, które były najczęściej wykorzystywane przez użytkowników próbujących obejść zabezpieczenia w wrażliwych tematach.
W praktyce GPT-5 częściej będzie mówił "nie jestem odpowiednim źródłem pomocy w tej sytuacji". Zamiast próbować kontynuować rozmowę na tematy wymagające profesjonalnego wsparcia. Dla części użytkowników może to być frustrujące, ale to celowy kompromis między użytecznością a bezpieczeństwem.
Warto też zwrócić uwagę na to, że te zmiany dotkną nie tylko bezpośrednich użytkowników ChatGPT. GPT-5 jest dostępny przez API, co oznacza, że deweloperzy budujący aplikacje oparte na tym modelu będą musieli uwzględnić nowe zachowania w swoich produktach. Aplikacje do medytacji, wellbeingu czy coachingu osobistego, które korzystają z modeli OpenAI, będą działać inaczej niż dotychczas – szczególnie gdy rozmowa zbliży się do tematów kryzysowych.
OpenAI nie podaje dokładnej daty publicznego udostępnienia GPT-5. Publikacja szczegółowych kart systemowych sugeruje jednak, że jesteśmy bliżej premiery niż dalej. Dokument jest częścią szerszej strategii transparentności – firma publikuje tego typu materiały przed pełnym wdrożeniem modelu.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar