Modele AI
Modele AI · 2 min czytania · 27 października 2025

ChatGPT dostaje wsparcie 170 psychologów. Wyniki? Minus 80% błędów

ChatGPT dostaje wsparcie 170 psychologów. Wyniki? Minus 80% błędów - LLM

Źródło: Link

Kiedy użytkownik pisze do ChatGPT o myślach samobójczych, model ma sekundy na odpowiedź, która może zadecydować o bezpieczeństwie tej osoby. OpenAI właśnie opublikowało wyniki współpracy z ponad 170 specjalistami zdrowia psychicznego. Przez ostatnie miesiące uczyli chatbota, jak reagować w takich momentach. Efekt? Redukcja niebezpiecznych odpowiedzi o 80%.

To nie jest teoretyczne ćwiczenie. ChatGPT obsługuje setki milionów użytkowników dziennie. Część z nich zwraca się do niego w chwilach rzeczywistego kryzysu. Problem? Standardowe modele językowe nie są zaprojektowane do rozpoznawania sygnałów ostrzegawczych. Nie potrafią też udzielać wsparcia zgodnego z protokołami klinicznymi.

Eksperci uczyli model wrażliwych rozmów

OpenAI zebrało zespół ekspertów z organizacji takich jak Crisis Text Line, National Suicide Prevention Lifeline i Substance Abuse and Mental Health Services Administration. Specjaliści przygotowali zestaw scenariuszy obejmujących myśli samobójcze, przemoc domową, zaburzenia odżywiania i inne sytuacje kryzysowe.

Model uczył się na trzech poziomach. Pierwszy: rozpoznawanie sygnałów zagrożenia (konkretne sformułowania, kontekst wypowiedzi). Drugi: odpowiadanie z empatią bez bagatelizowania problemu. Trzeci: kierowanie do właściwych zasobów pomocy. Kluczowe było nauczenie ChatGPT, kiedy nie próbować "rozwiązać" problemu samodzielnie, tylko natychmiast wskazać numer telefonu zaufania.

Czym różnią się nowe odpowiedzi od starych

Przed treningiem ChatGPT mógł odpowiedzieć na sygnał kryzysu ogólnikowym "przykro mi to słyszeć". Albo – co gorsze – wejść w długą konwersację filozoficzną o sensie życia. Teraz model:

  • Natychmiast rozpoznaje 15 kategorii sytuacji wymagających interwencji
  • Odpowiada według sprawdzonych protokołów kryzysowych
  • Podaje konkretne numery telefonów i zasoby (dostosowane do regionu użytkownika)
  • Unika rad, które mogłyby pogorszyć sytuację

W testach przeprowadzonych z udziałem klinicystów niebezpieczne lub niewłaściwe odpowiedzi spadły o 80%. Model nauczył się też rozróżniać, kiedy ktoś mówi o trudnym dniu, a kiedy faktycznie potrzebuje natychmiastowej pomocy. Subtelna różnica, którą wcześniej często mylił.

Co się zmieni dla Ciebie

Jeśli korzystasz z ChatGPT, zauważysz zmiany w odpowiedziach na tematy związane ze zdrowiem psychicznym. Model będzie bardziej ostrożny. Częściej będzie sugerować konsultację ze specjalistą. Będzie podawać konkretne zasoby pomocy.

To część szerszego trendu w branży AI – modele przestają być tylko narzędziami do generowania tekstu. Stają się systemami odpowiedzialnymi za bezpieczeństwo użytkowników. Google i Anthropic pracują nad podobnymi rozwiązaniami, ale OpenAI jako pierwsze opublikowało szczegóły współpracy z ekspertami klinicznymi i konkretne metryki poprawy.

Pamiętaj: ChatGPT nie zastąpi terapeuty ani linii kryzysowej. Jeśli jednak ktoś zwróci się do niego w trudnym momencie, teraz ma 80% większą szansę otrzymać odpowiedź, która pomoże zamiast zaszkodzić.

Źródła

Informacje o artykule

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.