Modele AI
Modele AI · 4 min czytania · 5 lutego 2026

Rodzina użyła ChatGPT przed decyzją o leczeniu raka syna

Grafika ilustrująca: Rodzina użyła ChatGPT przed decyzją o leczeniu raka syna

Źródło: Link

Kurs AI Evolution — od zera do eksperta

118 lekcji bez kodowania. ChatGPT, Claude, Gemini, automatyzacje. Notatnik AI i AI Coach w cenie.

Zacznij od zera →

Powiązane tematy

OpenAI właśnie opublikowało historię, która pokazuje AI w zupełnie innym świetle. Nie chodzi o automatyzację pracy ani generowanie obrazków. Chodzi o rodzinę, która musiała podjąć jedną z najtrudniejszych decyzji w życiu – wybrać metodę leczenia raka u swojego syna.

I użyli do tego ChatGPT">ChatGPT.

Kiedy Google nie wystarcza

sytuację: lekarz przedstawia Ci trzy opcje leczenia onkologicznego dla dziecka. Każda ma inne ryzyko, inne skutki uboczne, inny procent powodzenia. Masz kilka dni na decyzję. Szukasz informacji w internecie, ale trafiasz na medyczne żargonowe artykuły albo fora pełne sprzecznych opinii.

Właśnie tak wyglądała sytuacja rodziny opisanej przez OpenAI. Potrzebowali kogoś, kto pomoże im przetłumaczyć medyczne terminy na ludzki język. Kto odpowie na pytania o 3 w nocy, gdy lęk nie pozwala zasnąć. Kto pomoże uporządkować chaos informacji.

ChatGPT stał się tym "kimś".

Jak AI pomogło zrozumieć opcje leczenia

Rodzice używali ChatGPT do kilku konkretnych rzeczy. Po pierwsze – tłumaczenia terminologii medycznej. Gdy lekarz mówił o "protokole chemioterapii" czy "toksyczności hematologicznej", mogli wkleić te terminy do ChatGPT i dostać wyjaśnienie w prostych słowach.

Po drugie – porównywania opcji. ChatGPT pomógł im stworzyć tabelę z plusami i minusami każdej metody leczenia. Nie podejmował decyzji za nich. Nie mówił "wybierzcie opcję B". Ale pomagał strukturyzować informacje tak, by łatwiej było je porównać.

Po trzecie – przygotowywania pytań do lekarza. Rodzice prosili ChatGPT o sugestie, jakie pytania warto zadać onkologowi na następnej wizycie. Dzięki temu rozmowy z lekarzem były bardziej konkretne i produktywne.

AI jako pomocnik, nie zastępstwo dla lekarza

To kluczowy punkt całej historii. Rodzina nie użyła ChatGPT zamiast konsultacji z lekarzami. Użyła go obok.

ChatGPT nie stawiał diagnozy. Nie rekomendował konkretnego leczenia. Nie podważał opinii onkologów. Pełnił rolę... edukatora? Tłumacza? Asystenta badawczego?

Może po prostu: narzędzia do myślenia.

Lekarze mają wiedzę i doświadczenie. Ale mają też ograniczony czas na każdego pacjenta. ChatGPT miał czas nieograniczony – mógł odpowiadać na te same pytania po dziesięć razy, na różne sposoby, dopóki rodzice nie poczuli, że rozumieją.

Ryzyko, o którym trzeba pamiętać

Historia brzmi inspirująco. Ale – i to duże "ale" – niesie ze sobą poważne zastrzeżenia.

ChatGPT potrafi się mylić. Szczególnie w kwestiach medycznych. Model językowy (czyli "mózg" ChatGPT) uczy się z tekstów w internecie, nie z podręczników medycznych weryfikowanych przez ekspertów. Czasem może podać informację, która brzmi przekonująco, ale jest przestarzała albo po prostu błędna.

OpenAI wie o tym. Dlatego w opisie tej historii wielokrotnie podkreślają: ChatGPT był używany "obok wsparcia lekarzy", nie "zamiast". Rodzina weryfikowała wszystko z onkologami.

To nie jest narzędzie do samodzielnego diagnozowania. To narzędzie do lepszego przygotowania się na rozmowę z prawdziwym specjalistą.

Co to oznacza dla Ciebie

Nie musisz stać przed decyzją o leczeniu onkologicznym, żeby skorzystać z tego podejścia. ChatGPT może pomóc w przygotowaniu się do każdej ważnej rozmowy medycznej:

Przed wizytą u specjalisty – wklej wyniki badań (bez danych osobowych) i poproś o wyjaśnienie terminów. Zapytaj, jakie pytania warto zadać lekarzowi.

Po diagnozie – poproś o wytłumaczenie opcji leczenia prostym językiem. Stwórz listę pytań do lekarza o skutki uboczne, czas rekonwalescencji, alternatywy.

Przy wyborze terapii – użyj AI do stworzenia tabeli porównawczej różnych opcji (ale zawsze zweryfikuj z lekarzem).

Czy to przyszłość medycyny?

Pewnie tak. Ale nie w sensie "AI zastąpi lekarzy". Raczej: AI pomoże pacjentom być lepiej poinformowanymi partnerami w rozmowie z lekarzami.

Lekarze od lat mówią, że największym problemem jest brak czasu na edukację pacjenta. Pacjent wychodzi z gabinetu z diagnozą, ale nie do końca rozumie, co ona oznacza. Szuka w Google, wpada w panikę albo trafia na pseudonaukowe teorie.

ChatGPT może być pomostem. Narzędziem, które tłumaczy medyczny żargon na język codzienny. Które pomaga sformułować pytania. Które daje poczucie kontroli w sytuacji, gdy wszystko wydaje się chaotyczne.

Ale – i to ważne – tylko wtedy, gdy używamy go mądrze. Z krytycznym myśleniem. Z weryfikacją u prawdziwych specjalistów.

Dlaczego OpenAI to opublikowało

Można się zastanawiać, czy to nie PR-owa zagrywka. Wzruszająca historia, która ma pokazać "ludzką twarz" AI.

Może. Ale nawet jeśli tak, to pokazuje coś ważnego: firmy AI zaczynają rozumieć, że prawdziwa wartość ich technologii nie jest w zastępowaniu ludzi. Jest we wspieraniu ich w najtrudniejszych momentach.

Historia tej rodziny to nie dowód, że AI jest doskonałe. To dowód, że może być użyteczne – jeśli używamy go odpowiedzialnie.

Syn rodziny przeszedł leczenie. Rodzice czują, że ChatGPT pomógł im podjąć bardziej świadomą decyzję. Nie podjął jej za nich. Pomógł im ją zrozumieć.

I może właśnie w tym jest sens.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.