ChatGPT z wsparciem 170 psychologów. Błędy spadły o 80%
Źródło: Link
Źródło: Link
118 lekcji bez kodowania. ChatGPT, Claude, Gemini, automatyzacje. Notatnik AI i AI Coach w cenie.
Kiedy użytkownik pisze do ChatGPT">ChatGPT o myślach samobójczych, model ma sekundy na odpowiedź, która może zadecydować o bezpieczeństwie tej osoby. OpenAI właśnie opublikowało wyniki współpracy z ponad 170 specjalistami zdrowia psychicznego. Przez ostatnie miesiące uczyli chatbota, jak reagować w takich momentach. Efekt? Redukcja niebezpiecznych odpowiedzi o 80%.
To nie jest teoretyczne ćwiczenie. ChatGPT obsługuje setki milionów użytkowników dziennie. Część z nich zwraca się do niego w chwilach rzeczywistego kryzysu. Problem? Standardowe modele językowe nie są zaprojektowane do rozpoznawania sygnałów ostrzegawczych. Nie potrafią też udzielać wsparcia zgodnego z protokołami klinicznymi.
OpenAI zebrało zespół ekspertów z organizacji takich jak Crisis Text Line, National Suicide Prevention Lifeline i Substance Abuse and Mental Health Services Administration. Specjaliści przygotowali zestaw scenariuszy obejmujących myśli samobójcze, przemoc domową, zaburzenia odżywiania i inne sytuacje kryzysowe.
Model uczył się na trzech poziomach. Pierwszy: rozpoznawanie sygnałów zagrożenia (konkretne sformułowania, kontekst wypowiedzi). Drugi: odpowiadanie z empatią bez bagatelizowania problemu. Trzeci: kierowanie do właściwych zasobów pomocy. Kluczowe było nauczenie ChatGPT, kiedy nie próbować "rozwiązać" problemu samodzielnie, tylko natychmiast wskazać numer telefonu zaufania.
Warto podkreślić, jak żmudny był ten proces. Każdy scenariusz musiał zostać opracowany przez klinicystów z doświadczeniem w pracy kryzysowej, a nie przez specjalistów od uczenia maszynowego. To oznaczało dziesiątki godzin rozmów, w których psychiatrzy i psycholodzy tłumaczyli inżynierom OpenAI niuanse języka: dlaczego jedno zdanie brzmi jak sygnał alarmowy, a pozornie podobne inne nim nie jest. Taki transfer wiedzy klinicznej do systemu AI był wcześniej niemal niemożliwy do przeprowadzenia w takiej skali.
Przed treningiem ChatGPT mógł odpowiedzieć na sygnał kryzysu ogólnikowym "przykro mi to słyszeć". Albo – co gorsze – wejść w długą konwersację filozoficzną o sensie życia. Teraz model:
W testach przeprowadzonych z udziałem klinicystów niebezpieczne lub niewłaściwe odpowiedzi spadły o 80%. Model nauczył się też rozróżniać, kiedy ktoś mówi o trudnym dniu, a kiedy faktycznie potrzebuje natychmiastowej pomocy. Subtelna różnica, którą wcześniej często mylił.
Przykład tej subtelności: zdanie "chciałbym zniknąć" może oznaczać potrzebę chwili spokoju, ale w połączeniu z innymi sygnałami kontekstowymi – konkretnym planem, izolacją społeczną, poczuciem bezradności – nabiera zupełnie innego znaczenia. Stary model traktował oba przypadki podobnie. Nowy rozróżnia je i reaguje proporcjonalnie do rzeczywistego poziomu ryzyka.
Trenowanie modelu językowego w zakresie zdrowia psychicznego to wyjątkowo złożone zadanie z kilku powodów. Po pierwsze, dane treningowe muszą być wyjątkowo staranne – jeden błędnie sklasyfikowany przykład może nauczyć model niepożądanego zachowania w setkach podobnych sytuacji. Po drugie, granica między empatyczną rozmową a nieumyślnym pogłębianiem kryzysu jest cienka i zależy od szczegółów, które dla algorytmu są niewidoczne bez odpowiedniego przygotowania.
Dodatkowym wyzwaniem jest różnorodność kulturowa użytkowników. Sposób, w jaki ktoś mówi o bólu emocjonalnym po japońsku, różni się od tego, jak robi to użytkownik z Brazylii lub Polski. OpenAI nie ujawniło szczegółów dotyczących lokalizacji protokołów, ale zaznacza, że podawane zasoby pomocy są dostosowywane do regionu użytkownika – co sugeruje, że praca ekspertów obejmowała więcej niż jeden rynek.
Jeśli korzystasz z ChatGPT, zauważysz zmiany w odpowiedziach na tematy związane ze zdrowiem psychicznym. Model będzie bardziej ostrożny. Częściej będzie sugerować konsultację ze specjalistą. Będzie podawać konkretne zasoby pomocy.
To część szerszego trendu w branży AI – modele przestają być tylko narzędziami do generowania tekstu. Stają się systemami odpowiedzialnymi za bezpieczeństwo użytkowników. Google i Anthropic pracują nad podobnymi rozwiązaniami, ale OpenAI jako pierwsze opublikowało szczegóły współpracy z ekspertami klinicznymi i konkretne metryki poprawy.
Z perspektywy rynkowej ten krok ma też wymiar strategiczny. Regulatorzy w Unii Europejskiej i Stanach Zjednoczonych coraz uważniej przyglądają się wpływowi platform AI na zdrowie psychiczne użytkowników, szczególnie młodszych. Udokumentowana współpraca z ponad 170 klinicystami i mierzalny efekt w postaci 80% redukcji błędów to dokładnie ten rodzaj dowodów, który może okazać się kluczowy w rozmowach z regulatorami.
Pamiętaj: ChatGPT nie zastąpi terapeuty ani linii kryzysowej. Jeśli jednak ktoś zwróci się do niego w trudnym momencie, teraz ma 80% większą szansę otrzymać odpowiedź, która pomoże zamiast zaszkodzić.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar