Google AI podaje śmiertelne rady. Mind bada skalę problemu
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Kolega z pracy zapytał mnie wczoraj, czy wyszukiwarka Google może mu pomóc znaleźć wsparcie psychologiczne. Nie wiedział, że AI w wynikach wyszukiwania może mu doradzić coś, co zagrozi jego życiu.
Mind, jedna z największych organizacji charytatywnych zajmujących się zdrowiem psychicznym w Anglii i Walii, uruchamia oficjalne śledztwo w sprawie sztucznej inteligencji i bezpieczeństwa osób w kryzysie. Powód? Guardian ujawnił, że AI Overviews Google'a - te podsumowania generowane przez AI, które widzisz na górze wyników wyszukiwania - podaje "bardzo niebezpieczne" rady osobom szukającym pomocy w trudnych momentach.
AI Overviews to funkcja Google'a, która wyświetla automatycznie wygenerowane podsumowania na górze wyników wyszukiwania. Zamiast klikać w linki i czytać różne źródła, dostajesz gotową odpowiedź od AI. Wygodnie?
Problem pojawia się, gdy szukasz informacji o zdrowiu psychicznym, myślach samobójczych czy kryzysie emocjonalnym. Guardian przetestował system i odkrył, że AI podaje rady, które eksperci Mind określili jako potencjalnie śmiertelne. Nie mówimy tu o drobnych nieścisłościach. Mówimy o wskazówkach, które mogą realnie zaszkodzić osobie w kryzysie.
Różnica między tradycyjnymi wynikami wyszukiwania a AI Overviews jest kluczowa. Kiedyś Google pokazywał linki do zweryfikowanych organizacji jak Mind, Samaritans czy NHS. Teraz model językowy Gemini generuje własne odpowiedzi - często bez kontekstu medycznego czy psychologicznego.
Dziennikarze The Guardian przeprowadzili serię testów, wpisując zapytania związane ze zdrowiem psychicznym. Eksperci Mind przeanalizowali odpowiedzi AI. Ich werdykt był jednoznaczny: część porad jest "bardzo niebezpieczna".
Szczegóły konkretnych odpowiedzi nie zostały upublicznione - i słusznie. Publikowanie szkodliwych treści mogłoby je rozpowszechnić. Mind skupia się teraz na systemowym rozwiązaniu: jak zapewnić, że AI w ogóle nie generuje takich treści.
Organizacja Mind nie ogranicza się do krytyki. Uruchamia oficjalne śledztwo, które ma zbadać trzy kluczowe obszary:
To pierwsze tego typu śledztwo prowadzone przez dużą organizację charytatywną w Wielkiej Brytanii. Mind ma realny wpływ - współpracuje z rządem, NHS i firmami technologicznymi. Ich rekomendacje mogą przełożyć się na konkretne regulacje.
Podobne problemy z bezpieczeństwem systemów AI pojawiają się w różnych kontekstach. Różnica? W przypadku zdrowia psychicznego stawka jest dosłownie życiem ludzkim.
Łatwo zrzucić winę na Google. Prawda jest bardziej złożona: wszystkie duże modele językowe mają ten sam fundamentalny problem. Nie rozumieją kontekstu ludzkiego cierpienia. Nie wiedzą, kiedy odpowiedź "technicznie poprawna" jest praktycznie niebezpieczna.
ChatGPT, Claude, Gemini - wszystkie te systemy trenowano na tekstach z internetu. Niektóre z tych tekstów zawierały szkodliwe treści. Filtry bezpieczeństwa działają, ale nie są doskonałe. Zwłaszcza gdy ktoś szuka pomocy używając nietypowych sformułowań, które omijają standardowe zabezpieczenia.
Mind nie atakuje konkretnej firmy. Organizacja chce stworzyć standardy dla całej branży - podobnie jak istnieją standardy dla leków czy sprzętu medycznego.
Jeśli Ty lub ktoś bliski szukacie wsparcia w trudnym momencie, pamiętajcie jedną rzecz: AI Overviews to nie źródło medyczne. To automatycznie wygenerowany tekst, który może zawierać błędy.
Zrób jedną rzecz: zapisz sobie numery zweryfikowanych organizacji pomocowych. W Polsce to m.in. Telefon Zaufania dla Dzieci i Młodzieży (116 111), Telefon Zaufania dla Dorosłych (116 123), czy Centrum Wsparcia dla Osób w Stanie Kryzysu Psychicznego (800 70 2222). Te linie prowadzą przeszkoleni specjaliści, nie algorytmy.
Jeśli widzisz AI Overview przy zapytaniu o zdrowie psychiczne, przewiń niżej. Szukaj linków do organizacji takich jak Mind, Samaritans, czy w Polsce - Fundacja Itaka czy Instytut Psychologii Zdrowia. Tam znajdziesz pomoc weryfikowaną przez ludzi z odpowiednim przygotowaniem.
Mind będzie rekomendować konkretne rozwiązania. Na podstawie dotychczasowych wypowiedzi ekspertów organizacji można przewidzieć kilka kierunków:
Niektóre z tych rozwiązań już działają w innych kontekstach. Systemy AI dla regulowanych branż mają dodatkowe warstwy weryfikacji. Czas zastosować podobne standardy do zdrowia psychicznego.
Mind nie podał jeszcze dokładnego harmonogramu śledztwa. Organizacja zapowiedziała, że wyniki zostaną opublikowane w ciągu najbliższych miesięcy. Równolegle prowadzone będą konsultacje z firmami technologicznymi, NHS i rządem brytyjskim.
Google na razie nie skomentował oficjalnie sprawy poza standardowym oświadczeniem o "priorytetowym traktowaniu bezpieczeństwa". Zobaczymy, czy pojawią się konkretne zmiany w AI Overviews, czy tylko PR-owe deklaracje.
Sprawa ma potencjał, żeby wpłynąć na cały rynek. Jeśli Mind wypracuje standardy i przekona brytyjski rząd do ich wdrożenia, inne kraje mogą pójść tym tropem. Unia Europejska już teraz pracuje nad AI Act - regulacjami dotyczącymi sztucznej inteligencji w obszarach wysokiego ryzyka. Zdrowie psychiczne z pewnością się do nich kwalifikuje.
Dobra, powiedzmy to wprost: AI może być narzędziem pomocnym w wielu obszarach życia. Może pomóc w pracy, nauce, twórczości. Są jednak miejsca, gdzie automatyzacja bez nadzoru człowieka jest po prostu niebezpieczna. Zdrowie psychiczne to jedno z nich. Mind robi to, co powinno się było zrobić dawno temu - zmusza branżę do odpowiedzialności.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar