YouTube jako źródło medyczne? Google ma problem
Źródło: Link
Źródło: Link
90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.
Wpisujesz w Google pytanie o zdrowie. Dostajesz odpowiedź od AI. Brzmi wygodnie, prawda?
Problem w tym, że system coraz częściej odsyła Cię do… filmików na YouTube.
Badacze z kilku uniwersytetów przeanalizowali, skąd AI Google'a czerpie wiedzę medyczną. YouTube pojawia się w 4,4% wszystkich cytowań. Wyprzedza sprawdzone źródła medyczne.
To nie abstrakcja. To kwestia tego, komu ufasz, gdy szukasz informacji o swoim zdrowiu.
Wpisujesz pytanie zdrowotne w Google — system może pokazać Ci "AI Overview". Podsumowanie wygenerowane przez sztuczną inteligencję. Nie lista linków. Gotowa odpowiedź, która ma zaoszczędzić Ci czas.
AI przeszukuje setki stron, wybiera te najbardziej trafne. Skleja z nich odpowiedź i podaje źródła na dole.
Sensowne.
Jest tylko jeden haczyk.
System nie zawsze odróżni rzetelne źródło od przypadkowego filmiku. Dla AI liczy się głównie to, czy treść pasuje do pytania — nie to, kto ją stworzył.
Badanie objęło tysiące zapytań zdrowotnych. Naukowcy sprawdzili, które strony AI cytuje najczęściej.
YouTube wyskoczył na czwartym miejscu.
Dla porównania: renomowane serwisy jak Mayo Clinic czy WebMD pojawiały się rzadziej. Platformy rządowe też.
Co to oznacza w praktyce? Pytasz o objawy choroby — AI może odesłać Cię do filmiku nagranego przez kogoś bez wykształcenia medycznego. Nie chodzi o to, że Google celowo promuje słabe źródła. Algorytm po prostu tego nie wyłapuje.
I tu pojawia się pytanie: czy system, który ma nam pomagać, czasem nie robi więcej szkody?
YouTube to gigantyczna baza treści. Miliony filmów na każdy temat. Dziesiątki tysięcy o zdrowiu.
Każdy może tam coś wrzucić. Lekarz z 20-letnim doświadczeniem i ktoś, kto "przeczytał gdzieś w internecie" — dla algorytmu mogą wyglądać identycznie.
AI Google'a ocenia treści po kilku kryteriach. Czy odpowiadają na pytanie? Czy są popularne? Czy mają dużo interakcji.
Filmik z YouTube często spełnia te warunki. Jest konkretny, ma tysiące wyświetleń, ludzie zostawiają komentarze. System interpretuje to jako sygnał jakości.
Tyle że popularność to nie rzetelność.
Możesz mieć filmik oglądany milion razy, który szerzy kompletne bzdury. I AI może go zacytować jako wiarygodne źródło.
Jeśli szukasz informacji zdrowotnych przez Google, musisz być czujny. AI Overview może wyglądać profesjonalnie — to nie znaczy, że wszystkie źródła są sprawdzone.
Kilka zasad do zapamiętania:
Po pierwsze: sprawdzaj źródło. Kliknij w link i zobacz, kto stoi za treścią. Szpital? Uniwersytet? Urząd? A może losowy kanał na YouTube.
Po drugie: jeśli chodzi o Twoje zdrowie — nie polegaj tylko na AI. Porozmawiaj z lekarzem. System może podpowiedzieć kierunek, nie zastąpi konsultacji.
Po trzecie: bądź sceptyczny wobec prostych odpowiedzi na skomplikowane pytania. Medycyna rzadko jest czarno-biała. Jeśli AI mówi Ci, że "na pewno to X" — to czerwona flaga.
Firma wie o problemie. Publicznie mówi, że pracuje nad poprawą jakości źródeł w odpowiedziach medycznych.
Tylko że to niełatwe do naprawienia. AI działa na podstawie wzorców w danych. Jeśli YouTube ma masę treści zdrowotnych i ludzie je oglądają — system będzie je cytował.
Można wprowadzić filtry. Można promować tylko zweryfikowane źródła. To wymaga ręcznej pracy i stałego nadzoru.
A Google stawia na automatyzację.
Efekt? Mamy system, który potrafi wygenerować odpowiedź na każde pytanie. Nie zawsze potrafi ocenić, czy ta odpowiedź jest prawdziwa.
To nie tylko problem Google'a. Wszystkie duże modele AI mają podobne wyzwanie.
ChatGPT, Claude, Gemini — każdy z nich może generować treści, które brzmią przekonująco. I każdy może się mylić.
Różnica w tym, że Google jest bramą do informacji dla miliardów ludzi. Gdy ich AI coś powie, większość odbiorców przyjmie to za pewnik.
Nie chodzi o to, że są naiwni. Po prostu ufamy Google'owi. Przez lata nauczyliśmy się, że wyniki wyszukiwania są w miarę rzetelne.
AI zmienia tę dynamikę. System nie pokazuje Ci już listy źródeł do oceny. Podaje gotową odpowiedź. Musisz mu zaufać — albo włożyć dodatkowy wysiłek w weryfikację.
Większość ludzi nie będzie weryfikować.
Badanie pokazało problem, który będzie narastał. Im więcej ludzi korzysta z AI do wyszukiwania informacji, tym większe ryzyko dezinformacji.
Google może wprowadzić zmiany. Może priorytetyzować źródła medyczne. Może dodać ostrzeżenia przy treściach z YouTube.
Pytanie brzmi: czy zrobi to wystarczająco szybko.
Bo technologia już jest w rękach użytkowników. Miliony ludzi codziennie dostają odpowiedzi generowane przez AI. Część z nich podejmuje decyzje zdrowotne na podstawie tych informacji.
To nie scenariusz z przyszłości. To dzieje się teraz.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar