Złośliwe oprogramowanie tworzone przez AI? Google rozwiewa mity
Źródło: Link
Źródło: Link
Słyszałeś ostatnio o apokalipsie cyberbezpieczeństwa, którą ma wywołać sztuczna inteligencja tworząca złośliwe oprogramowanie? Google właśnie sprawdziło, jak ta katastrofa wygląda w praktyce.
Spoiler: niezbyt groźnie.
Zespół badawczy Google przeanalizował 5 rodzin malware, które powstały z pomocą AI. Żadna z nich nie stanowi realnego zagrożenia. Wszystkie są łatwe do wykrycia przez standardowe narzędzia bezpieczeństwa. Większość po prostu nie działa zgodnie z zamierzeniami twórców.
Badacze z Google przyjrzeli się dokładnie próbkom złośliwego oprogramowania stworzonego przy użyciu modeli AI. Wyniki są jednoznaczne. Mimo głośnych ostrzeżeń w mediach, żadne z przeanalizowanych narzędzi nie osiągnęło poziomu zagrożenia porównywalnego z tradycyjnym malware pisanym przez ludzi.
Problem tkwi w podstawach. AI może wygenerować kod, który wygląda sensownie na pierwszy rzut oka. Brakuje mu jednak finezji potrzebnej do obejścia współczesnych zabezpieczeń. Modele językowe nie rozumieją kontekstu działania systemów operacyjnych, mechanizmów wykrywania czy sposobów ukrywania złośliwej aktywności (i pewnie dobrze, że tak jest).
Tradycyjne złośliwe oprogramowanie to efekt lat doświadczenia, znajomości luk bezpieczeństwa i umiejętności testowania w realnych warunkach. Tymczasem kod generowany przez AI przypomina pracę początkującego programisty. Technicznie poprawny, ale bez zrozumienia niuansów.
Wszystkie przeanalizowane próbki zawierały charakterystyczne wzorce, które systemy antywirusowe rozpoznają bez problemu. Brak obfuskacji, przewidywalne zachowania, standardowe struktury kodu. To cechy, które sprawiają, że wykrycie takiego malware jest trywialne dla współczesnych narzędzi bezpieczeństwa.
Czy możesz spać spokojnie? W dużej mierze tak. Obecne możliwości AI w tworzeniu malware są mocno przeceniane. To nie znaczy, że zagrożenie w przyszłości nie może się zmienić. Na dziś jednak dystans między hype'em a rzeczywistością jest ogromny.
Badania Google pokazują, że zespoły bezpieczeństwa mają jeszcze sporo czasu na przygotowanie się do ewentualnej ewolucji zagrożeń opartych na AI. Obecnie większe ryzyko stanowią sprawdzeni cyberprzestępcy używający tradycyjnych metod. Phishing, exploity zero-day czy ransomware pisane ręcznie przez ekspertów – to wciąż główne zagrożenia.
Dla specjalistów ds. cyberbezpieczeństwa to dobra wiadomość. Zamiast panikować nad hipotetycznymi scenariuszami, możesz skupić się na realnych zagrożeniach, które istnieją tu i teraz. A te, jak pokazuje praktyka, wciąż wymagają ludzkiej inteligencji po obu stronach barykady.
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar