PromptSpy: malware, który używa Gemini do ataków na Androida
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Kolega z działu IT zapytał mnie wczoraj, czy słyszałem o malware sterowanym przez AI. Nie wiedział, że ktoś już to zrobił. I użył do tego Gemini.
PromptSpy to nowy typ złośliwego oprogramowania wykryty przez badaczy bezpieczeństwa. Zamiast tradycyjnego podejścia – gdzie malware ma zakodowane konkretne akcje dla konkretnych wersji systemu – ten wariant robi coś innego. Wykorzystuje Google Gemini do analizy tego, co widzi na ekranie zainfekowanego urządzenia Android. Następnie podejmuje decyzje w czasie rzeczywistym.
To działa i już jest w obiegu.
Tradycyjny malware działa według sztywnego scenariusza. Programista pisze kod: "jeśli widzisz przycisk X, kliknij go". Problem? Producenci urządzeń zmieniają interfejsy, aktualizują systemy, a malware przestaje działać. Wymaga ciągłych aktualizacji.
PromptSpy rozwiązuje ten problem inaczej. Zamiast szukać konkretnego przycisku o konkretnym ID, robi zrzut ekranu i wysyła go do Gemini z zapytaniem: "Co widzisz na tym ekranie? Gdzie jest przycisk do zatwierdzenia uprawnień?" Model odpowiada, wskazując lokalizację elementu. Malware klika.
Kluczowa różnica: to nie jest sztywny kod. To elastyczny system, który adaptuje się do zmian w interfejsie. Aktualizacja Androida? Zmiana układu przycisków? Gemini nadal rozpozna, co jest czym.
PromptSpy wykorzystuje Android Accessibility Services – funkcje zaprojektowane dla osób z niepełnosprawnościami. Te uprawnienia dają dostęp do wszystkiego, co dzieje się na ekranie. Legalnie służą do czytania treści dla niewidomych. W rękach malware stają się narzędziem do pełnej kontroli nad urządzeniem.
Proces wygląda tak:
Całość działa w tle. Użytkownik widzi normalny interfejs. Za kulisami AI analizuje każdy ekran i podpowiada malware, jak się zachować.
Dotychczasowe metody wykrywania malware polegają na analizie wzorców kodu. Systemy antywirusowe szukają znanych sygnatur, podejrzanych funkcji, nietypowych zachowań. PromptSpy omija to wszystko.
Po pierwsze: kod malware jest prosty i niewielki. Nie zawiera skomplikowanej logiki ataku – ta logika jest w Gemini. Trudniej go wykryć statyczną analizą.
Po drugie: zachowanie jest dynamiczne. Każda infekcja może wyglądać inaczej, bo AI dostosowuje akcje do konkretnego urządzenia i sytuacji. Brak powtarzalnych wzorców.
Po trzecie: wykorzystuje legalny serwis Google. Komunikacja z API Gemini wygląda jak normalne zapytanie do usługi AI. Trudno odróżnić ją od legalnego użycia Gemini w aplikacjach.
Każde zapytanie do Gemini kosztuje. To nie jest darmowe narzędzie w skali masowych ataków. Atakujący musi płacić za API – co ogranicza skalę operacji lub wymaga modelu biznesowego (np. wykradanie danych o wysokiej wartości).
Poza tym: metoda wymaga połączenia z internetem. Offline malware nie działa. To punkt podatności – można wykryć podejrzany ruch sieciowy do API Google.
Dobra, powiedzmy to wprost: nie ma magicznej ochrony przed tym typem ataku. Są jednak konkretne kroki, które zmniejszają ryzyko.
Zrób jedną rzecz dzisiaj: Sprawdź, które aplikacje mają uprawnienia Accessibility Services. Na Androidzie: Ustawienia → Dostępność → Zainstalowane usługi. Jeśli widzisz tam aplikację, której nie rozpoznajesz lub która nie powinna mieć takich uprawnień – wyłącz natychmiast.
Accessibility Services to klucz do królestwa. Żadna aplikacja nie powinna ich mieć, chyba że jest to czytnik ekranu, menedżer haseł lub podobne narzędzie, które faktycznie tego wymaga.
To nie jest paranoja. To higiena cyfrowa w czasach, gdy agenci AI mogą być wykorzystywani przeciwko Tobie.
PromptSpy to proof of concept. Pokazuje, że można wykorzystać duże modele językowe do tworzenia elastycznego, trudnego do wykrycia malware. To nie ostatni raz, gdy zobaczymy takie podejście.
Producenci systemów antywirusowych będą musieli zmienić strategie. Zamiast szukać sygnatur kodu, będą musieli analizować zachowania i wzorce komunikacji z API AI. Google prawdopodobnie wprowadzi dodatkowe zabezpieczenia w API Gemini – może ograniczenia częstotliwości zapytań, analizę nietypowych wzorców użycia.
Również inne modele AI mogą być wykorzystane w podobny sposób. To nie jest problem specyficzny dla Gemini – każdy model z możliwością analizy obrazów i API może być użyty do takich celów.
Paradoks: narzędzia AI, które mają nam pomagać, stają się bronią w rękach atakujących. Nie pierwszy raz w historii technologii. Nie ostatni.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar