Rodzina użyła ChatGPT przed decyzją o leczeniu raka syna
Źródło: Link
Źródło: Link
118 lekcji bez kodowania. ChatGPT, Claude, Gemini, automatyzacje. Notatnik AI i AI Coach w cenie.
OpenAI właśnie opublikowało historię, która pokazuje AI w zupełnie innym świetle. Nie chodzi o automatyzację pracy ani generowanie obrazków. Chodzi o rodzinę, która musiała podjąć jedną z najtrudniejszych decyzji w życiu – wybrać metodę leczenia raka u swojego syna.
I użyli do tego ChatGPT">ChatGPT.
sytuację: lekarz przedstawia Ci trzy opcje leczenia onkologicznego dla dziecka. Każda ma inne ryzyko, inne skutki uboczne, inny procent powodzenia. Masz kilka dni na decyzję. Szukasz informacji w internecie, ale trafiasz na medyczne żargonowe artykuły albo fora pełne sprzecznych opinii.
Właśnie tak wyglądała sytuacja rodziny opisanej przez OpenAI. Potrzebowali kogoś, kto pomoże im przetłumaczyć medyczne terminy na ludzki język. Kto odpowie na pytania o 3 w nocy, gdy lęk nie pozwala zasnąć. Kto pomoże uporządkować chaos informacji.
ChatGPT stał się tym "kimś".
Rodzice używali ChatGPT do kilku konkretnych rzeczy. Po pierwsze – tłumaczenia terminologii medycznej. Gdy lekarz mówił o "protokole chemioterapii" czy "toksyczności hematologicznej", mogli wkleić te terminy do ChatGPT i dostać wyjaśnienie w prostych słowach.
Po drugie – porównywania opcji. ChatGPT pomógł im stworzyć tabelę z plusami i minusami każdej metody leczenia. Nie podejmował decyzji za nich. Nie mówił "wybierzcie opcję B". Ale pomagał strukturyzować informacje tak, by łatwiej było je porównać.
Po trzecie – przygotowywania pytań do lekarza. Rodzice prosili ChatGPT o sugestie, jakie pytania warto zadać onkologowi na następnej wizycie. Dzięki temu rozmowy z lekarzem były bardziej konkretne i produktywne.
To kluczowy punkt całej historii. Rodzina nie użyła ChatGPT zamiast konsultacji z lekarzami. Użyła go obok.
ChatGPT nie stawiał diagnozy. Nie rekomendował konkretnego leczenia. Nie podważał opinii onkologów. Pełnił rolę... edukatora? Tłumacza? Asystenta badawczego?
Może po prostu: narzędzia do myślenia.
Lekarze mają wiedzę i doświadczenie. Ale mają też ograniczony czas na każdego pacjenta. ChatGPT miał czas nieograniczony – mógł odpowiadać na te same pytania po dziesięć razy, na różne sposoby, dopóki rodzice nie poczuli, że rozumieją.
Historia brzmi inspirująco. Ale – i to duże "ale" – niesie ze sobą poważne zastrzeżenia.
ChatGPT potrafi się mylić. Szczególnie w kwestiach medycznych. Model językowy (czyli "mózg" ChatGPT) uczy się z tekstów w internecie, nie z podręczników medycznych weryfikowanych przez ekspertów. Czasem może podać informację, która brzmi przekonująco, ale jest przestarzała albo po prostu błędna.
OpenAI wie o tym. Dlatego w opisie tej historii wielokrotnie podkreślają: ChatGPT był używany "obok wsparcia lekarzy", nie "zamiast". Rodzina weryfikowała wszystko z onkologami.
To nie jest narzędzie do samodzielnego diagnozowania. To narzędzie do lepszego przygotowania się na rozmowę z prawdziwym specjalistą.
Nie musisz stać przed decyzją o leczeniu onkologicznym, żeby skorzystać z tego podejścia. ChatGPT może pomóc w przygotowaniu się do każdej ważnej rozmowy medycznej:
Przed wizytą u specjalisty – wklej wyniki badań (bez danych osobowych) i poproś o wyjaśnienie terminów. Zapytaj, jakie pytania warto zadać lekarzowi.
Po diagnozie – poproś o wytłumaczenie opcji leczenia prostym językiem. Stwórz listę pytań do lekarza o skutki uboczne, czas rekonwalescencji, alternatywy.
Przy wyborze terapii – użyj AI do stworzenia tabeli porównawczej różnych opcji (ale zawsze zweryfikuj z lekarzem).
Pewnie tak. Ale nie w sensie "AI zastąpi lekarzy". Raczej: AI pomoże pacjentom być lepiej poinformowanymi partnerami w rozmowie z lekarzami.
Lekarze od lat mówią, że największym problemem jest brak czasu na edukację pacjenta. Pacjent wychodzi z gabinetu z diagnozą, ale nie do końca rozumie, co ona oznacza. Szuka w Google, wpada w panikę albo trafia na pseudonaukowe teorie.
ChatGPT może być pomostem. Narzędziem, które tłumaczy medyczny żargon na język codzienny. Które pomaga sformułować pytania. Które daje poczucie kontroli w sytuacji, gdy wszystko wydaje się chaotyczne.
Ale – i to ważne – tylko wtedy, gdy używamy go mądrze. Z krytycznym myśleniem. Z weryfikacją u prawdziwych specjalistów.
Można się zastanawiać, czy to nie PR-owa zagrywka. Wzruszająca historia, która ma pokazać "ludzką twarz" AI.
Może. Ale nawet jeśli tak, to pokazuje coś ważnego: firmy AI zaczynają rozumieć, że prawdziwa wartość ich technologii nie jest w zastępowaniu ludzi. Jest we wspieraniu ich w najtrudniejszych momentach.
Historia tej rodziny to nie dowód, że AI jest doskonałe. To dowód, że może być użyteczne – jeśli używamy go odpowiedzialnie.
Syn rodziny przeszedł leczenie. Rodzice czują, że ChatGPT pomógł im podjąć bardziej świadomą decyzję. Nie podjął jej za nich. Pomógł im ją zrozumieć.
I może właśnie w tym jest sens.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar