Złośliwe oprogramowanie tworzone przez AI? Google rozwiewa mity
Źródło: Link
Źródło: Link
Szkolenia, warsztaty i wdrożenia AI. Dopasowane do Twojego zespołu.
Słyszałeś ostatnio o apokalipsie cyberbezpieczeństwa, którą ma wywołać sztuczna inteligencja tworząca złośliwe oprogramowanie? Google właśnie sprawdziło, jak ta katastrofa wygląda w praktyce.
Spoiler: niezbyt groźnie.
Zespół badawczy Google przeanalizował 5 rodzin malware, które powstały z pomocą AI. Żadna z nich nie stanowi realnego zagrożenia. Wszystkie są łatwe do wykrycia przez standardowe narzędzia bezpieczeństwa. Większość po prostu nie działa zgodnie z zamierzeniami twórców.
Badacze z Google przyjrzeli się dokładnie próbkom złośliwego oprogramowania stworzonego przy użyciu modeli AI. Wyniki są jednoznaczne. Mimo głośnych ostrzeżeń w mediach, żadne z przeanalizowanych narzędzi nie osiągnęło poziomu zagrożenia porównywalnego z tradycyjnym malware pisanym przez ludzi.
Problem tkwi w podstawach. AI może wygenerować kod, który wygląda sensownie na pierwszy rzut oka. Brakuje mu jednak finezji potrzebnej do obejścia współczesnych zabezpieczeń. Modele językowe nie rozumieją kontekstu działania systemów operacyjnych, mechanizmów wykrywania czy sposobów ukrywania złośliwej aktywności (i pewnie dobrze, że tak jest).
Warto dodać, że same próbki przeanalizowane przez Google nie były tworzone przez wyrafinowanych hakerów. W większości przypadków chodziło o osoby bez głębokiej wiedzy technicznej, które próbowały użyć narzędzi AI jako skrótu do stworzenia działającego malware. To tzw. script kiddies nowej generacji – zamiast kopiować gotowe skrypty z forów, proszą ChatGPT o wygenerowanie złośliwego kodu. Efekty są równie marne.
Tradycyjne złośliwe oprogramowanie to efekt lat doświadczenia, znajomości luk bezpieczeństwa i umiejętności testowania w realnych warunkach. Tymczasem kod generowany przez AI przypomina pracę początkującego programisty. Technicznie poprawny, ale bez zrozumienia niuansów.
Wszystkie przeanalizowane próbki zawierały charakterystyczne wzorce, które systemy antywirusowe rozpoznają bez problemu. Brak obfuskacji, przewidywalne zachowania, standardowe struktury kodu. To cechy, które sprawiają, że wykrycie takiego malware jest trywialne dla współczesnych narzędzi bezpieczeństwa.
Dla porównania – profesjonalne grupy hakerskie, takie jak te sponsorowane przez państwa, spędzają tygodnie lub miesiące na testowaniu swoich narzędzi przeciwko aktualnym rozwiązaniom antywirusowym. Modyfikują kod tak długo, aż wskaźnik wykrywalności w serwisach takich jak VirusTotal spadnie do zera. Żaden obecny model językowy nie jest w stanie przeprowadzić takiego iteracyjnego procesu samodzielnie i skutecznie. To fundamentalna różnica między kodem wygenerowanym a kodem dopracowanym przez człowieka z realnymi umiejętnościami ofensywnymi.
Narracja o AI jako superbroni hakerów nie wzięła się znikąd. W 2023 i 2024 roku pojawiły się dziesiątki raportów branżowych straszących scenariuszami, w których modele językowe umożliwią masowe tworzenie zaawansowanego malware nawet osobom bez wiedzy technicznej. Firmy zajmujące się cyberbezpieczeństwem chętnie podchwyciły ten temat – nowe zagrożenia to w końcu argument za zakupem nowych rozwiązań ochronnych.
Media technologiczne wzmocniły przekaz, bo nagłówki o AI i hakerach generują kliknięcia. W efekcie powstała pętla informacyjna, w której kolejne raporty cytowały poprzednie, budując obraz zagrożenia znacznie poważniejszego niż rzeczywistość. Badania Google są o tyle cenne, że opierają się na analizie rzeczywistych próbek, a nie hipotetycznych scenariuszy.
To nie znaczy, że branża bezpieczeństwa powinna całkowicie zignorować temat AI w kontekście cyberzagrożeń. AI już dziś jest używana do innych celów przez cyberprzestępców – przede wszystkim do tworzenia bardziej przekonujących wiadomości phishingowych, generowania fałszywych tożsamości czy automatyzowania rozpoznania celów. To realne zastosowania, które stanowią znacznie większe zagrożenie niż generowanie kodu malware.
W dużej mierze tak. Obecne możliwości AI w tworzeniu malware są mocno przeceniane. To nie znaczy, że zagrożenie w przyszłości nie może się zmienić. Na dziś jednak dystans między hype'em a rzeczywistością jest ogromny.
Badania Google pokazują, że zespoły bezpieczeństwa mają jeszcze sporo czasu na przygotowanie się do ewentualnej ewolucji zagrożeń opartych na AI. Obecnie większe ryzyko stanowią sprawdzeni cyberprzestępcy używający tradycyjnych metod. Phishing, exploity zero-day czy ransomware pisane ręcznie przez ekspertów – to wciąż główne zagrożenia.
Dla specjalistów ds. cyberbezpieczeństwa to dobra wiadomość. Zamiast panikować nad hipotetycznymi scenariuszami, możesz skupić się na realnych zagrożeniach, które istnieją tu i teraz. A te, jak pokazuje praktyka, wciąż wymagają ludzkiej inteligencji po obu stronach barykady.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar