Google potwierdza: hakerzy klonują Gemini do cyberataków
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Google właśnie potwierdził coś, o czym eksperci od cyberbezpieczeństwa mówili szeptem od miesięcy. Hakerzy nauczyli się klonować Gemini AI – i używają tych kopii do przeprowadzania ataków na skalę, jakiej jeszcze nie widzieliśmy. Nie chodzi o jakieś pojedyncze incydenty. To systematyczne działanie grup sponsorowanych przez państwa.
Ktoś skopiował mózg najlepszego negocjatora na świecie. Tylko że zamiast prowadzić trudne rozmowy biznesowe, ten klon pisze perfekcyjne phishingowe maile, analizuje luki w zabezpieczeniach i planuje ataki. Dokładnie to się dzieje.
Proces nazywa się "model extraction" – ekstrakcja modelu. W praktyce działa jak odwrotna inżynieria. Hakerzy wysyłają do Gemini tysiące zapytań, analizują odpowiedzi i na tej podstawie odtwarzają sposób działania AI. To trochę jak poznawanie osobowości kogoś przez obserwację jego reakcji w różnych sytuacjach.
Problem w tym, że Google udostępnia Gemini przez API – czyli interfejs programistyczny, który pozwala aplikacjom rozmawiać z AI. To jak otwarte drzwi do laboratorium. Każdy może wysłać pytanie i dostać odpowiedź. A jak wysyłasz milion pytań dziennie przez rok? Zaczynasz rozumieć, jak ten "mózg" myśli.
Zespół Google Threat Intelligence Group – czyli ludzi śledzących zagrożenia – zauważył wzorzec. Grupy hakerskie APT (Advanced Persistent Threat, czyli zaawansowane trwałe zagrożenia) systematycznie odpytują Gemini. Nie pytają o pogodę czy przepisy kulinarne. Testują, jak AI reaguje na prośby o generowanie złośliwego kodu, analizę systemów bezpieczeństwa czy tworzenie przekonujących wiadomości phishingowych.
I tu zaczyna się prawdziwy problem. Bo Gemini – jak każda duża sztuczna inteligencja – ma zabezpieczenia. Nie odpowie wprost: "Oto kod wirusa". Ale hakerzy są cierpliwi. Formułują pytania tak, żeby obejść te blokady. Pytają o "teoretyczne scenariusze", "badania akademickie" czy "przykłady edukacyjne". A potem składają kawałki odpowiedzi w funkcjonalną broń.
Google wymienia konkretne nazwy: APT28 (Rosja), APT42 (Iran), grupy powiązane z Chinami i Koreą Północną. To nie są samotni hakerzy w kapturach siedzący w piwnicy. To zespoły finansowane przez rządy, z budżetami liczonymi w milionach dolarów i dostępem do najlepszych specjalistów.
Dlaczego w ogóle się to udaje? Bo modele AI jak Gemini są trenowane na ogromnych ilościach danych z internetu. A internet – cóż – zawiera wszystko. Instrukcje budowy bomb obok przepisów na ciasto. Opisy luk w zabezpieczeniach obok poradników ich łatania. AI nie rozróżnia intencji. Wie tylko, że te informacje istnieją i są ze sobą powiązane.
Hakerzy wykorzystują tę cechę. Nie proszą: "Napisz mi ransomware". Pytają: "Jakie są teoretyczne wektory ataku na systemy szyfrowania AES-256 Jeśli chodzi o badań nad bezpieczeństwem kryptograficznym?". Gemini, chcąc być pomocny, zaczyna wyjaśniać. A w wyjaśnieniu jest już połowa tego, czego potrzebują.
Raport Google pokazuje konkretne przypadki. Jedna z grup APT używała sklonowanego Gemini do automatycznego generowania wariantów złośliwego kodu. Pisali podstawową wersję wirusa, a AI tworzyło setki mutacji – każda lekko inna, przez co trudniejsza do wykrycia przez oprogramowanie antywirusowe.
Najbardziej przerażające jest użycie AI do phishingu. Pamiętasz te maile od "księcia z Nigerii" z błędami ortograficznymi co drugie słowo? To historia. Sklonowany Gemini pisze wiadomości nie do odróżnienia od prawdziwych.
Analizuje profil ofiary w mediach społecznościowych. Widzi, że pracujesz w dziale księgowości, ostatnio pisałeś o stresie przed końcem kwartału, lubisz koty i właśnie wróciłeś z urlopu w Hiszpanii. AI generuje mail "od szefa", który wspomina o pilnej płatności przed zamknięciem kwartału, dodaje luźną uwagę o tym, jak fajnie było w Barcelonie (widział zdjęcia), i wrzuca emotkę z kotem. Podpisujesz się imieniem, jakiego używa Twój prawdziwy szef w nieformalnych mailach.
Klikniesz w taki link? Większość ludzi tak. Bo to nie wygląda jak atak. Wygląda jak zwykła wiadomość od kogoś, kto Cię zna.
Google dokumentuje kampanie, gdzie jeden haker z AI generował tysiące spersonalizowanych maili dziennie. Wcześniej taka operacja wymagała zespołu ludzi i tygodni przygotowań. Teraz? Kilka godzin i odpowiedni prompt dla AI.
Firma nie siedzi z założonymi rękami. Wprowadzają kilka warstw obrony. Pierwsza: rate limiting – ograniczanie liczby zapytań z jednego źródła. Jeśli ktoś wysyła 10 tysięcy pytań dziennie, system zaczyna podejrzewać, że to nie zwykły użytkownik.
Druga warstwa: analiza wzorców zapytań. AI monitoruje AI – system wykrywa, gdy ktoś systematycznie testuje granice zabezpieczeń. Nie chodzi o pojedyncze pytanie "jak działa phishing", ale o serię pytań, które razem tworzą mapę luk w zabezpieczeniach.
Trzecia: watermarking – znakowanie wodne odpowiedzi. Google testuje metody wbudowywania niewidocznych znaczników w tekst generowany przez Gemini. Gdyby taki tekst pojawił się potem w ataku, można go prześledzić do źródła.
Ale – i to duże "ale" – to wyścig zbrojeń. Każda nowa obrona prowokuje nowe metody ataku. Hakerzy już uczą swoje sklonowane modele usuwania tych znaczników. Albo trenują je na starszych, niezabezpieczonych wersjach Gemini, które wyciekły do sieci.
Możesz myśleć: "Okej, ale ja nie jestem celem dla hakerów sponsorowanych przez państwa". Może nie bezpośrednio. Ale te narzędzia nie zostają w rękach elit cyberprzestępczości. Spływają w dół.
Sklonowany model Gemini to oprogramowanie. A oprogramowanie można skopiować, sprzedać, udostępnić. Za rok – może wcześniej – takie narzędzia będą dostępne na czarnym rynku dla każdego, kto ma bitcoiny. Nie będziesz walczył z APT28. Będziesz walczył z lokalnym oszustem, który kupił "AI Hacking Kit" za 500 dolarów.
Już teraz widać efekty. Liczba wyrafinowanych ataków phishingowych wzrosła w 2026 roku o 340% według firmy Proofpoint zajmującej się cyberbezpieczeństwem. To nie przypadek. To skalowanie – AI pozwala jednemu atakującemu robić to, co wcześniej wymagało dziesiątek ludzi.
Twoja firmowa skrzynka mailowa? Potencjalny cel. Konto bankowe? Podobnie. Profil w mediach społecznościowych? Źródło danych dla AI, które planuje atak na Ciebie lub Twoją rodzinę.
Nie ma magicznej obrony. Ale są praktyczne kroki. Pierwszy: przestań ufać formie wiadomości. Że mail wygląda profesjonalnie, używa właściwego tonu i nie ma błędów? To już nic nie znaczy. AI pisze lepiej niż większość ludzi.
Zamiast tego: weryfikuj kanałem zewnętrznym. Szef pisze o pilnej płatności? Zadzwoń do niego. Kolega prosi o dane dostępowe? Napisz na jego prywatny numer, nie odpowiadaj na maila. To nowa normalność.
Drugi krok: minimalizuj cyfrowy ślad. Każdy post w mediach społecznościowych to informacja dla AI. Nie musisz usuwać kont – ale zastanów się dwa razy, zanim opublikujesz szczegóły o pracy, rutynie dnia czy planach urlopowych. To paliwo dla algorytmów.
Trzeci: uwierzytelnianie dwuskładnikowe wszędzie. Jeśli haker zdobędzie Twoje hasło (a AI świetnie odgaduje hasła, analizując Twoje zainteresowania), drugi składnik – kod z telefonu, klucz sprzętowy – to ostatnia linia obrony.
Czwarty: edukacja. Twoi pracownicy, rodzina, znajomi – większość nie wie, że AI zmienił reguły gry. Myślą, że phishing to wciąż te śmieszne maile z błędami. Nie jest. Pokaż im ten artykuł. Niech wiedzą, z czym mamy do czynienia.
Google kończy raport ostrzeżeniem: to dopiero początek. Gemini to jeden model. Są dziesiątki innych – Claude, GPT-4o, LLaMA, modele open source. Każdy można sklonować, zmodyfikować, wykorzystać.
Firmy technologiczne próbują zamknąć furtki. Ale AI działa jak woda – znajdzie każdą szczelinę. A im potężniejsze modele, tym więcej szkody mogą wyrządzić w złych rękach. GPT-5, Gemini 3.0, kolejne generacje będą jeszcze bardziej przekonujące, kreatywne, niebezpieczne.
Nie ma prostego rozwiązania. Nie możemy przestać rozwijać AI – korzyści są ogromne. Ale nie możemy też udawać, że problem nie istnieje. Każdy nowy model to potencjalna broń. Każda luka w zabezpieczeniach to zaproszenie dla hakerów.
Raport Google to nie tylko dokument techniczny. To sygnał ostrzegawczy. Era, kiedy cyberbezpieczeństwo było problemem "kogoś tam w IT", się skończyła. Teraz to problem nas wszystkich. Bo AI nie atakuje serwerów – atakuje ludzi. I jest w tym cholernie dobre.
Może brzmi Ale Google nie publikuje takich raportów dla rozrywki. Publikuje, bo problem jest realny, rosnący i dotyczy każdego, kto ma komputer, telefon czy konto w banku. Czyli praktycznie wszystkich.
Pytanie nie brzmi "czy AI zmieni cyberprzestępczość". Pytanie brzmi: "jak szybko się przystosujemy, zanim będzie za późno".
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar