ChatGPT dostaje wsparcie 170 psychologów. Wyniki? Minus 80% błędów
Źródło: Link
Źródło: Link
Kiedy użytkownik pisze do ChatGPT o myślach samobójczych, model ma sekundy na odpowiedź, która może zadecydować o bezpieczeństwie tej osoby. OpenAI właśnie opublikowało wyniki współpracy z ponad 170 specjalistami zdrowia psychicznego. Przez ostatnie miesiące uczyli chatbota, jak reagować w takich momentach. Efekt? Redukcja niebezpiecznych odpowiedzi o 80%.
To nie jest teoretyczne ćwiczenie. ChatGPT obsługuje setki milionów użytkowników dziennie. Część z nich zwraca się do niego w chwilach rzeczywistego kryzysu. Problem? Standardowe modele językowe nie są zaprojektowane do rozpoznawania sygnałów ostrzegawczych. Nie potrafią też udzielać wsparcia zgodnego z protokołami klinicznymi.
OpenAI zebrało zespół ekspertów z organizacji takich jak Crisis Text Line, National Suicide Prevention Lifeline i Substance Abuse and Mental Health Services Administration. Specjaliści przygotowali zestaw scenariuszy obejmujących myśli samobójcze, przemoc domową, zaburzenia odżywiania i inne sytuacje kryzysowe.
Model uczył się na trzech poziomach. Pierwszy: rozpoznawanie sygnałów zagrożenia (konkretne sformułowania, kontekst wypowiedzi). Drugi: odpowiadanie z empatią bez bagatelizowania problemu. Trzeci: kierowanie do właściwych zasobów pomocy. Kluczowe było nauczenie ChatGPT, kiedy nie próbować "rozwiązać" problemu samodzielnie, tylko natychmiast wskazać numer telefonu zaufania.
Przed treningiem ChatGPT mógł odpowiedzieć na sygnał kryzysu ogólnikowym "przykro mi to słyszeć". Albo – co gorsze – wejść w długą konwersację filozoficzną o sensie życia. Teraz model:
W testach przeprowadzonych z udziałem klinicystów niebezpieczne lub niewłaściwe odpowiedzi spadły o 80%. Model nauczył się też rozróżniać, kiedy ktoś mówi o trudnym dniu, a kiedy faktycznie potrzebuje natychmiastowej pomocy. Subtelna różnica, którą wcześniej często mylił.
Jeśli korzystasz z ChatGPT, zauważysz zmiany w odpowiedziach na tematy związane ze zdrowiem psychicznym. Model będzie bardziej ostrożny. Częściej będzie sugerować konsultację ze specjalistą. Będzie podawać konkretne zasoby pomocy.
To część szerszego trendu w branży AI – modele przestają być tylko narzędziami do generowania tekstu. Stają się systemami odpowiedzialnymi za bezpieczeństwo użytkowników. Google i Anthropic pracują nad podobnymi rozwiązaniami, ale OpenAI jako pierwsze opublikowało szczegóły współpracy z ekspertami klinicznymi i konkretne metryki poprawy.
Pamiętaj: ChatGPT nie zastąpi terapeuty ani linii kryzysowej. Jeśli jednak ktoś zwróci się do niego w trudnym momencie, teraz ma 80% większą szansę otrzymać odpowiedź, która pomoże zamiast zaszkodzić.
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar