Modele AI
Modele AI · 4 min czytania · 12 stycznia 2026

Google wyłącza AI w wyszukiwarce zdrowotnej

Google wyłącza AI w wyszukiwarce zdrowotnej. Co poszło nie tak?

Źródło: Link

Darmowy webinar — AI od zera

90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.

Zapisz się →

Powiązane tematy

Google właśnie wyłączył swoje AI Overviews – te automatyczne podsumowania na górze wyników wyszukiwania – dla niektórych zapytań medycznych. Powód? System serwował błędne informacje zdrowotne.

To nie pierwszy raz, gdy AI giganta wpada w kłopoty. Tym razem jednak stawka jest wyższa. Mówimy o zdrowiu ludzi.

Co wyłapało śledztwo The Guardian

Dziennikarze The Guardian przeprowadzili test. Zadawali Google różne pytania zdrowotne – od objawów chorób po porady dotyczące leków. AI Overviews w wielu przypadkach podawało informacje mylące. Czasem wręcz niebezpieczne.

Przykład? Zamiast odesłać do sprawdzonych źródeł medycznych, system wyciągał informację z przypadkowego forum internetowego. Albo sklejał fakty w sposób, który brzmi logicznie, ale medycznie jest kompletnie bez sensu.

Problem tkwi w tym, jak działają te systemy. AI Overviews to nie wyszukiwarka w klasycznym sensie – to LLM (Large Language Model, ten sam "mózg" co w ChatGPT), który próbuje stworzyć odpowiedź na podstawie tego, co znalazł w sieci.

Dlaczego AI sypie się w medycynie

Medycyna to pole minowe dla AI. Z kilku powodów.

Po pierwsze: kontekst jest królem. Objaw "ból głowy" może oznaczać migrenę, odwodnienie, problem z ciśnieniem albo coś poważniejszego. AI nie zada Ci pytań uzupełniających. Nie wie, ile masz lat, jakie masz inne dolegliwości, czy bierzesz leki. Po prostu skleja informacje z różnych źródeł i mówi "gotowe".

Po drugie: internet pełen jest sprzecznych porad zdrowotnych. Od naukowych publikacji po blogi ludzi, którzy "słyszeli od kolegi". LLM nie rozróżnia automatycznie, co pochodzi z renomowanego czasopisma medycznego, a co z forum dyskusyjnego sprzed dekady.

Po trzecie: ryzyko. Źle dobrany film na Netflixa? Stracisz dwie godziny. Źle zinterpretowana porada zdrowotna? Konsekwencje mogą być poważne.

Google oczywiście wie o tych problemach. Dlatego przez lata stosował specjalne zasady dla treści medycznych – tak zwane YMYL (Your Money or Your Life). To kategoria tematów, gdzie błąd może kosztować zdrowie lub pieniądze. Algorytmy wyszukiwarki były tu szczególnie ostrożne.

Co teraz robi Google

Reakcja jest szybka, ale wybiórcza. Google nie wyłącza AI Overviews całkowicie – tylko dla "niektórych" zapytań medycznych. Firma nie ujawnia dokładnie, które to zapytania. PewNie chodzi o to, że sama jeszcze testuje, gdzie przebiega bezpieczna granica.

Ciekawe podejście. Z jednej strony pokazuje, że Google bierze odpowiedzialność. Z drugiej – ujawnia fundamentalny problem: nawet twórcy nie do końca wiedzą, kiedy ich AI da radę, a kiedy spudłuje.

taką sytuację: pytasz "czy mogę wziąć ibuprofen w ciąży". To pytanie medyczne, dość powszechne. Czy AI Overviews się pojawi? A jeśli zapytasz inaczej – "bezpieczne leki przeciwbólowe dla kobiet w ciąży"? System musi rozpoznać setki wariantów tego samego pytania i zdecydować, czy odpowiedzieć, czy odesłać do tradycyjnych wyników.

Dlaczego to ważne dla Ciebie

Nawet jeśli nie szukasz informacji medycznych, ta historia pokazuje coś ważniejszego. Granice AI w 2026 roku.

Mamy systemy, które piszą kod, tworzą grafikę, analizują dane. Brzmią mądrze, odpowiadają płynnie. Łatwo zapomnieć, że to wciąż maszyny do rozpoznawania wzorców – nie eksperci z wykształceniem medycznym.

Kiedy ChatGPT, Gemini czy Claude odpowiada na Twoje pytanie, nie "myśli" w ludzkim sensie. Przewiduje, jakie słowa powinny się pojawić dalej, na podstawie miliardów przykładów z internetu. Czasem działa genialnie. Czasem – jak w przypadku porad zdrowotnych – może być ryzykowne.

Praktyczna rada? Traktuj AI jak pierwszą wersję roboczą. Nie ostateczną odpowiedź. Świetnie nadaje się do burzy mózgów, pisania emaili, tłumaczenia tekstów. Gorzej – do diagnozowania chorób czy porad prawnych.

Co dalej z AI w wyszukiwarkach

Google nie jest sam. Microsoft ma Bing z integracją ChatGPT. Pojawiają się nowe wyszukiwarki oparte na AI – Perplexity, You.com. Wszystkie stoją przed tym samym dylematem: jak dać użytkownikom szybkie odpowiedzi, nie ryzykując dezinformacji.

Rozwiązanie pewnie będzie hybrydowe. AI do prostych pytań faktograficznych ("kto wygrał mundial 2022"). Tradycyjne wyniki z weryfikowanych źródeł do tematów wrażliwych – zdrowie, finanse, prawo.

A może pojawią się specjalistyczne AI – wytrenowane wyłącznie na materiałach medycznych, z weryfikacją przez lekarzy. Kosztowne, ale w przypadku zdrowia może konieczne.

Jedna rzecz jest pewna: era "AI wie wszystko" się skończyła, zanim naprawdę się zaczęła. Teraz wchodzimy w fazę "AI wie dużo, ale musimy uważać gdzie".

I może to dobrze. Bo technologia, która zna swoje ograniczenia, jest bezpieczniejsza niż ta, która udaje wszechwiedzącą.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.