Modele AI
Modele AI · 6 min czytania · 20 lutego 2026

Google AI podaje śmiertelne rady. Mind bada skalę problemu

Google AI podaje śmiertelne rady. Mind bada skalę problemu

Źródło: Link

Kurs AI Evolution

118 lekcji od zera do eksperta. Bez kodowania.

Sprawdź kurs →

Powiązane tematy

W skrócie:
  • Mind uruchamia oficjalne śledztwo po tym, jak Guardian ujawnił niebezpieczne rady AI Overviews Google'a dla osób w kryzysie psychicznym
  • Eksperci ds. zdrowia psychicznego określili niektóre odpowiedzi AI jako "bardzo niebezpieczne"
  • Organizacja zbada zabezpieczenia w systemach AI i wypracuje standardy dla całej branży
  • Problem dotyczy nie tylko Google'a - to systemowy brak weryfikacji medycznej w dużych modelach językowych

Kolega z pracy zapytał mnie wczoraj, czy wyszukiwarka Google może mu pomóc znaleźć wsparcie psychologiczne. Nie wiedział, że AI w wynikach wyszukiwania może mu doradzić coś, co zagrozi jego życiu.

Mind, jedna z największych organizacji charytatywnych zajmujących się zdrowiem psychicznym w Anglii i Walii, uruchamia oficjalne śledztwo w sprawie sztucznej inteligencji i bezpieczeństwa osób w kryzysie. Powód? Guardian ujawnił, że AI Overviews Google'a - te podsumowania generowane przez AI, które widzisz na górze wyników wyszukiwania - podaje "bardzo niebezpieczne" rady osobom szukającym pomocy w trudnych momentach.

AI Overviews Google'a w centrum kontrowersji - Mind bada bezpieczeństwo automatycznych podsumowań

Czym właściwie są AI Overviews i dlaczego to problem

AI Overviews to funkcja Google'a, która wyświetla automatycznie wygenerowane podsumowania na górze wyników wyszukiwania. Zamiast klikać w linki i czytać różne źródła, dostajesz gotową odpowiedź od AI. Wygodnie?

Problem pojawia się, gdy szukasz informacji o zdrowiu psychicznym, myślach samobójczych czy kryzysie emocjonalnym. Guardian przetestował system i odkrył, że AI podaje rady, które eksperci Mind określili jako potencjalnie śmiertelne. Nie mówimy tu o drobnych nieścisłościach. Mówimy o wskazówkach, które mogą realnie zaszkodzić osobie w kryzysie.

Różnica między tradycyjnymi wynikami wyszukiwania a AI Overviews jest kluczowa. Kiedyś Google pokazywał linki do zweryfikowanych organizacji jak Mind, Samaritans czy NHS. Teraz model językowy Gemini generuje własne odpowiedzi - często bez kontekstu medycznego czy psychologicznego.

Co konkretnie znalazł Guardian

Dziennikarze The Guardian przeprowadzili serię testów, wpisując zapytania związane ze zdrowiem psychicznym. Eksperci Mind przeanalizowali odpowiedzi AI. Ich werdykt był jednoznaczny: część porad jest "bardzo niebezpieczna".

Szczegóły konkretnych odpowiedzi nie zostały upublicznione - i słusznie. Publikowanie szkodliwych treści mogłoby je rozpowszechnić. Mind skupia się teraz na systemowym rozwiązaniu: jak zapewnić, że AI w ogóle nie generuje takich treści.

Mind rozpoczyna śledztwo, które ma wypracować standardy bezpieczeństwa dla AI Jeśli chodzi o zdrowia psychicznego

Mind uruchamia śledztwo - co to oznacza w praktyce

Organizacja Mind nie ogranicza się do krytyki. Uruchamia oficjalne śledztwo, które ma zbadać trzy kluczowe obszary:

  • Jakie zabezpieczenia stosują obecnie firmy technologiczne w systemach AI odpowiadających na pytania o zdrowie psychiczne
  • Jak skuteczne są te zabezpieczenia w praktyce (nie w teorii z prezentacji produktowej)
  • Jakie standardy branżowe należy wprowadzić, żeby chronić osoby w kryzysie

To pierwsze tego typu śledztwo prowadzone przez dużą organizację charytatywną w Wielkiej Brytanii. Mind ma realny wpływ - współpracuje z rządem, NHS i firmami technologicznymi. Ich rekomendacje mogą przełożyć się na konkretne regulacje.

Podobne problemy z bezpieczeństwem systemów AI pojawiają się w różnych kontekstach. Różnica? W przypadku zdrowia psychicznego stawka jest dosłownie życiem ludzkim.

Dlaczego to nie jest tylko problem Google'a

Łatwo zrzucić winę na Google. Prawda jest bardziej złożona: wszystkie duże modele językowe mają ten sam fundamentalny problem. Nie rozumieją kontekstu ludzkiego cierpienia. Nie wiedzą, kiedy odpowiedź "technicznie poprawna" jest praktycznie niebezpieczna.

ChatGPT, Claude, Gemini - wszystkie te systemy trenowano na tekstach z internetu. Niektóre z tych tekstów zawierały szkodliwe treści. Filtry bezpieczeństwa działają, ale nie są doskonałe. Zwłaszcza gdy ktoś szuka pomocy używając nietypowych sformułowań, które omijają standardowe zabezpieczenia.

Mind nie atakuje konkretnej firmy. Organizacja chce stworzyć standardy dla całej branży - podobnie jak istnieją standardy dla leków czy sprzętu medycznego.

Osoby w kryzysie psychicznym często szukają pomocy przez wyszukiwarki - AI musi być bezpieczne w każdym scenariuszu

Co to oznacza dla Ciebie i Twoich bliskich

Jeśli Ty lub ktoś bliski szukacie wsparcia w trudnym momencie, pamiętajcie jedną rzecz: AI Overviews to nie źródło medyczne. To automatycznie wygenerowany tekst, który może zawierać błędy.

Zrób jedną rzecz: zapisz sobie numery zweryfikowanych organizacji pomocowych. W Polsce to m.in. Telefon Zaufania dla Dzieci i Młodzieży (116 111), Telefon Zaufania dla Dorosłych (116 123), czy Centrum Wsparcia dla Osób w Stanie Kryzysu Psychicznego (800 70 2222). Te linie prowadzą przeszkoleni specjaliści, nie algorytmy.

Jeśli widzisz AI Overview przy zapytaniu o zdrowie psychiczne, przewiń niżej. Szukaj linków do organizacji takich jak Mind, Samaritans, czy w Polsce - Fundacja Itaka czy Instytut Psychologii Zdrowia. Tam znajdziesz pomoc weryfikowaną przez ludzi z odpowiednim przygotowaniem.

Jak firmy technologiczne powinny to naprawić

Mind będzie rekomendować konkretne rozwiązania. Na podstawie dotychczasowych wypowiedzi ekspertów organizacji można przewidzieć kilka kierunków:

  • Wyłączenie AI Overviews dla zapytań związanych z kryzysem psychicznym i myślami samobójczymi
  • Obowiązkowe wyświetlanie numerów pomocowych PRZED jakąkolwiek treścią generowaną przez AI
  • Weryfikacja treści o zdrowiu psychicznym przez licencjonowanych specjalistów przed publikacją
  • Transparentne raportowanie błędów i szkodliwych odpowiedzi

Niektóre z tych rozwiązań już działają w innych kontekstach. Systemy AI dla regulowanych branż mają dodatkowe warstwy weryfikacji. Czas zastosować podobne standardy do zdrowia psychicznego.

Co dalej - harmonogram i oczekiwania

Mind nie podał jeszcze dokładnego harmonogramu śledztwa. Organizacja zapowiedziała, że wyniki zostaną opublikowane w ciągu najbliższych miesięcy. Równolegle prowadzone będą konsultacje z firmami technologicznymi, NHS i rządem brytyjskim.

Google na razie nie skomentował oficjalnie sprawy poza standardowym oświadczeniem o "priorytetowym traktowaniu bezpieczeństwa". Zobaczymy, czy pojawią się konkretne zmiany w AI Overviews, czy tylko PR-owe deklaracje.

Sprawa ma potencjał, żeby wpłynąć na cały rynek. Jeśli Mind wypracuje standardy i przekona brytyjski rząd do ich wdrożenia, inne kraje mogą pójść tym tropem. Unia Europejska już teraz pracuje nad AI Act - regulacjami dotyczącymi sztucznej inteligencji w obszarach wysokiego ryzyka. Zdrowie psychiczne z pewnością się do nich kwalifikuje.

Dobra, powiedzmy to wprost: AI może być narzędziem pomocnym w wielu obszarach życia. Może pomóc w pracy, nauce, twórczości. Są jednak miejsca, gdzie automatyzacja bez nadzoru człowieka jest po prostu niebezpieczna. Zdrowie psychiczne to jedno z nich. Mind robi to, co powinno się było zrobić dawno temu - zmusza branżę do odpowiedzialności.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od 18 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.