Google AI daje niebezpieczne porady medyczne
Źródło: Link
Źródło: Link
90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.
Wpisujesz w Google: "Dlaczego boli mnie w klatce piersiowej?". Zamiast listy linków — gotowa odpowiedź od AI.
To już działa. I tu zaczyna się problem.
Google AI Overviews – narzędzie, które od 2024 roku wyświetla się nad zwykłymi wynikami wyszukiwania – ma odpowiadać na Twoje pytania natychmiast. Bez klikania. Bez czytania kilku źródeł. Szybko i pewnie.
Haczyk? Pewność siebie AI nie ma nic wspólnego z rzetelnością.
Badanie opublikowane przez The Guardian pokazuje coś absurdalnego. AI Overviews w sprawach zdrowotnych cytuje YouTube częściej niż jakąkolwiek stronę medyczną.
YouTube.
Platformę, gdzie obok wartościowych treści znajdziesz tysiące filmów o "cudownych" dietach, "naturalnych" lekach na raka i teoriach spiskowych o szczepionkach.
Dla porównania: renomowane źródła medyczne – Mayo Clinic, NHS – pojawiają się w odpowiedziach AI sporadycznie. System Google'a traktuje film jakiegoś influencera fitness jako równie wiarygodne źródło co instytucje medyczne z wieloletnią reputacją.
Efekt?
Dostajesz odpowiedź, która wygląda profesjonalnie, brzmi przekonująco i... może być kompletnie błędna.
Eksperci używają określenia "confident authority" – pewna autorytatywność. AI nie mówi: "według jednego z możliwych podejść". Nie sugeruje: "warto skonsultować z lekarzem".
AI stwierdza.
To jak różnica między kolegą, który mówi "chyba słyszałem, że..." a profesorem medycyny, który kategorycznie diagnozuje. Tyle że tu profesorem jest system bazujący równie dobrze na filmiku z TikToka.
Dr Sarah Mitchell z University of Cambridge, cytowana przez The Guardian, mówi wprost: "System może podawać całkowicie błędne porady medyczne, które narażają użytkowników na poważne szkody".
kogoś z bólem w klatce piersiowej. Zamiast jechać na pogotowie, wpisuje pytanie w Google. AI odpowiada, że to pewnie niestrawność. Osoba bierze tabletkę na zgagę.
A to był zawał.
Skrajny przykład? Może. Niemożliwy? Absolutnie nie.
Odpowiedź jest prozaiczna: presja konkurencyjna i pęd za innowacją.
OpenAI wypuściło ChatGPT. Microsoft zintegrowało AI z Bingiem. Google musiało odpowiedzieć — i odpowiedziało. AI Overviews. Szybko. Masowo. Globalnie.
Problem w tym, że w medycynie "szybko" i "wystarczająco dobrze" to za mało. Tu liczy się precyzja. Weryfikacja. Odpowiedzialność.
A Google – mimo że ma zasoby, żeby stworzyć najlepszy system medyczny na świecie – najwyraźniej postawiło na tempo wdrożenia.
Ironia? Google Health, oddział firmy zajmujący się zdrowiem, przez lata pracował nad rzetelnymi narzędziami medycznymi. Część projektów zamknięto. A teraz główna wyszukiwarka rozdaje porady zdrowotne oparte na algorytmie, który traktuje YouTube jak wiarygodne źródło.
Jeśli korzystasz z Google (a statystycznie: korzystasz), musisz wiedzieć jedno.
AI Overviews to nie lekarz. To nawet nie wykształcony farmaceuta. To system, który skleja informacje z internetu – bez weryfikacji, bez kontekstu, bez odpowiedzialności.
Praktyczne zasady:
Firma w oficjalnych komunikatach zapewnia, że "stale ulepsza jakość odpowiedzi" i "pracuje nad bezpieczeństwem użytkowników".
Tylko że The Guardian przeprowadził testy w styczniu 2026 roku. Dwa lata po uruchomieniu AI Overviews.
I problemy wciąż są.
Google ma narzędzia, żeby to naprawić. Może ograniczyć AI Overviews w kwestiach medycznych tylko do zweryfikowanych źródeł. Może dodać wyraźne ostrzeżenia. Może w ogóle wyłączyć funkcję dla zapytań zdrowotnych – dopóki system nie będzie działał niezawodnie.
Pytanie brzmi: czy zrobi to dostatecznie szybko?
Bo w międzyczasie miliony ludzi codziennie dostają odpowiedzi medyczne od systemu, który traktuje YouTube jak autorytet.
ChatGPT, Claude, Gemini – wszystkie duże modele językowe mają podobny defekt. Brzmią przekonująco nawet wtedy, gdy się mylą.
To nie bug. To cecha architektury.
LLM-y (Large Language Models – czyli "mózgi" tych systemów) są trenowane, żeby generować płynny, naturalny tekst. Nie żeby weryfikować prawdziwość.
Dla Ciebie różnica jest niewidoczna. Błędna informacja brzmi identycznie jak poprawna. Ten sam ton. Ta sama pewność. Zero sygnałów ostrzegawczych.
I właśnie dlatego AI w medycynie to pole minowe.
Technologia dojrzeje. Systemy staną się lepsze. Ale w 2026 roku – teraz – nie jesteśmy jeszcze w punkcie, gdzie można im ślepo ufać w kwestiach zdrowia.
Regulacje pewnie nadejdą. Unia Europejska już pracuje nad AI Act, który ma objąć też systemy medyczne. Stany Zjednoczone rozważają podobne kroki.
Prawo zawsze goni za technologią. A w międzyczasie to Ty decydujesz, komu ufasz.
Google AI Overviews to potężne narzędzie. Wygodne. Szybkie. I – w wielu dziedzinach – całkiem użyteczne.
Tylko nie w medycynie. Nie teraz. Nie w tej formie.
Więc następnym razem, gdy zobaczysz ładnie sformatowaną odpowiedź AI na pytanie o zdrowie – zatrzymaj się. Sprawdź źródła.
A najlepiej: zadzwoń do lekarza.
Bo YouTube to świetne miejsce na przepisy i tutoriale makijażu. Ale nie na diagnostykę medyczną.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar