Badania AI
Badania AI · 4 min czytania · 26 stycznia 2026

YouTube jako źródło medyczne? Google ma problem

Grafika ilustrująca: YouTube jako źródło medyczne? Google ma problem

Źródło: Link

Darmowy webinar — AI od zera

90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.

Zapisz się →

Wpisujesz w Google pytanie o zdrowie. Dostajesz odpowiedź od AI. Brzmi wygodnie, prawda?

Problem w tym, że system coraz częściej odsyła Cię do… filmików na YouTube.

Badacze z kilku uniwersytetów przeanalizowali, skąd AI Google'a czerpie wiedzę medyczną. YouTube pojawia się w 4,4% wszystkich cytowań. Wyprzedza sprawdzone źródła medyczne.

To nie abstrakcja. To kwestia tego, komu ufasz, gdy szukasz informacji o swoim zdrowiu.

Jak to działa

Wpisujesz pytanie zdrowotne w Google — system może pokazać Ci "AI Overview". Podsumowanie wygenerowane przez sztuczną inteligencję. Nie lista linków. Gotowa odpowiedź, która ma zaoszczędzić Ci czas.

AI przeszukuje setki stron, wybiera te najbardziej trafne. Skleja z nich odpowiedź i podaje źródła na dole.

Sensowne.

Jest tylko jeden haczyk.

System nie zawsze odróżni rzetelne źródło od przypadkowego filmiku. Dla AI liczy się głównie to, czy treść pasuje do pytania — nie to, kto ją stworzył.

YouTube jako autorytet medyczny

Badanie objęło tysiące zapytań zdrowotnych. Naukowcy sprawdzili, które strony AI cytuje najczęściej.

YouTube wyskoczył na czwartym miejscu.

Dla porównania: renomowane serwisy jak Mayo Clinic czy WebMD pojawiały się rzadziej. Platformy rządowe też.

Co to oznacza w praktyce? Pytasz o objawy choroby — AI może odesłać Cię do filmiku nagranego przez kogoś bez wykształcenia medycznego. Nie chodzi o to, że Google celowo promuje słabe źródła. Algorytm po prostu tego nie wyłapuje.

I tu pojawia się pytanie: czy system, który ma nam pomagać, czasem nie robi więcej szkody?

Dlaczego AI wybiera YouTube

YouTube to gigantyczna baza treści. Miliony filmów na każdy temat. Dziesiątki tysięcy o zdrowiu.

Każdy może tam coś wrzucić. Lekarz z 20-letnim doświadczeniem i ktoś, kto "przeczytał gdzieś w internecie" — dla algorytmu mogą wyglądać identycznie.

AI Google'a ocenia treści po kilku kryteriach. Czy odpowiadają na pytanie? Czy są popularne? Czy mają dużo interakcji.

Filmik z YouTube często spełnia te warunki. Jest konkretny, ma tysiące wyświetleń, ludzie zostawiają komentarze. System interpretuje to jako sygnał jakości.

Tyle że popularność to nie rzetelność.

Możesz mieć filmik oglądany milion razy, który szerzy kompletne bzdury. I AI może go zacytować jako wiarygodne źródło.

Co to oznacza dla Ciebie

Jeśli szukasz informacji zdrowotnych przez Google, musisz być czujny. AI Overview może wyglądać profesjonalnie — to nie znaczy, że wszystkie źródła są sprawdzone.

Kilka zasad do zapamiętania:

Po pierwsze: sprawdzaj źródło. Kliknij w link i zobacz, kto stoi za treścią. Szpital? Uniwersytet? Urząd? A może losowy kanał na YouTube.

Po drugie: jeśli chodzi o Twoje zdrowie — nie polegaj tylko na AI. Porozmawiaj z lekarzem. System może podpowiedzieć kierunek, nie zastąpi konsultacji.

Po trzecie: bądź sceptyczny wobec prostych odpowiedzi na skomplikowane pytania. Medycyna rzadko jest czarno-biała. Jeśli AI mówi Ci, że "na pewno to X" — to czerwona flaga.

Czy Google to naprawi

Firma wie o problemie. Publicznie mówi, że pracuje nad poprawą jakości źródeł w odpowiedziach medycznych.

Tylko że to niełatwe do naprawienia. AI działa na podstawie wzorców w danych. Jeśli YouTube ma masę treści zdrowotnych i ludzie je oglądają — system będzie je cytował.

Można wprowadzić filtry. Można promować tylko zweryfikowane źródła. To wymaga ręcznej pracy i stałego nadzoru.

A Google stawia na automatyzację.

Efekt? Mamy system, który potrafi wygenerować odpowiedź na każde pytanie. Nie zawsze potrafi ocenić, czy ta odpowiedź jest prawdziwa.

Szerszy kontekst

To nie tylko problem Google'a. Wszystkie duże modele AI mają podobne wyzwanie.

ChatGPT, Claude, Gemini — każdy z nich może generować treści, które brzmią przekonująco. I każdy może się mylić.

Różnica w tym, że Google jest bramą do informacji dla miliardów ludzi. Gdy ich AI coś powie, większość odbiorców przyjmie to za pewnik.

Nie chodzi o to, że są naiwni. Po prostu ufamy Google'owi. Przez lata nauczyliśmy się, że wyniki wyszukiwania są w miarę rzetelne.

AI zmienia tę dynamikę. System nie pokazuje Ci już listy źródeł do oceny. Podaje gotową odpowiedź. Musisz mu zaufać — albo włożyć dodatkowy wysiłek w weryfikację.

Większość ludzi nie będzie weryfikować.

Co dalej

Badanie pokazało problem, który będzie narastał. Im więcej ludzi korzysta z AI do wyszukiwania informacji, tym większe ryzyko dezinformacji.

Google może wprowadzić zmiany. Może priorytetyzować źródła medyczne. Może dodać ostrzeżenia przy treściach z YouTube.

Pytanie brzmi: czy zrobi to wystarczająco szybko.

Bo technologia już jest w rękach użytkowników. Miliony ludzi codziennie dostają odpowiedzi generowane przez AI. Część z nich podejmuje decyzje zdrowotne na podstawie tych informacji.

To nie scenariusz z przyszłości. To dzieje się teraz.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.