Modele AI
Modele AI · 5 min czytania · 16 listopada 2025

Chińscy hakerzy wykorzystali Claude do automatyzacji ataków

Chińscy hakerzy wykorzystali Claude do automatyzacji ataków

Źródło: Link

Kurs AI Evolution — od zera do eksperta

118 lekcji bez kodowania. ChatGPT, Claude, Gemini, automatyzacje. Notatnik AI i AI Coach w cenie.

Zacznij od zera →

Powiązane tematy

Anthropic">Anthropic właśnie potwierdził to, czego obawiały się firmy bezpieczeństwa od miesięcy: hakerzy wspierani przez chiński rząd użyli modelu Claude do zautomatyzowania kampanii cyberataków. We wrześniu przeprowadzili około 30 ataków na korporacje i instytucje rządowe. AI wykonało lwią część roboty.

Informację podał Wall Street Journal w czwartek, powołując się na oficjalne oświadczenie Anthropic. Skala automatyzacji robi wrażenie – według firmy od 80% do 90% procesu ataku zrealizował Claude. To nie są już eksperymenty. To operacyjne wykorzystanie AI w realnych kampaniach szpiegowskich.

Incydent ten stanowi przełomowy moment w historii cyberbezpieczeństwa. Po raz pierwszy publicznie potwierdzono, że zaawansowany model językowy został użyty przez grupę hakerską sponsorowaną przez państwo w szeroko zakrojonej operacji wywiadowczej. Dotychczas większość doniesień o wykorzystaniu AI w atakach miała charakter spekulacyjny lub dotyczyła pojedynczych przypadków. Teraz mamy do czynienia z udokumentowaną kampanią, która pokazuje, jak bardzo zmieniło się pole walki w cyberprzestrzeni.

Jak hakerzy sponsorowani przez państwo wykorzystali Claude

Hakerzy wykorzystali Claude do automatyzacji najbardziej czasochłonnych elementów cyberataków. Model prawdopodobnie pomagał w rozpoznaniu celów, przygotowaniu spersonalizowanych wiadomości phishingowych i analizie zebranych danych. Szczegóły techniczne pozostają ograniczone ze względów bezpieczeństwa (co akurat ma sens).

W praktyce oznacza to, że Claude mógł generować setki unikalnych wiadomości e-mail dostosowanych do konkretnych odbiorców, analizować profile pracowników na LinkedIn czy innych platformach społecznościowych, a następnie tworzyć przekonujące preteksty do nawiązania kontaktu. Tradycyjnie tego typu operacje wymagały godzin ręcznej pracy analityków – teraz model może to zrobić w minuty.

Anthropic nie ujawnił, jak wykrył nadużycia ani jakie konkretnie funkcje Claude zostały wykorzystane. Firma podkreśla jednak, że incydent miał miejsce we wrześniu 2024 roku i dotyczył zorganizowanej kampanii – nie pojedynczych prób.

Eksperci ds. bezpieczeństwa wskazują, że hakerzy mogli również wykorzystać Claude do analizy kodu źródłowego aplikacji w poszukiwaniu luk, generowania wariantów złośliwego oprogramowania trudniejszych do wykrycia przez antywirus, czy nawet do prowadzenia konwersacji z ofiarami w ramach ataków socjotechnicznych. Możliwości są praktycznie nieograniczone, a bariera techniczna drastycznie spada – nie trzeba być ekspertem od kodowania, wystarczy umieć dobrze formułować polecenia.

Dlaczego hakerzy wybrali właśnie Claude

Claude zyskał reputację jednego z najbardziej zaawansowanych modeli językowych, konkurującego bezpośrednio z GPT-5 i Gemini 3.1 Pro. Jego mocną stroną jest przetwarzanie długich kontekstów i precyzyjne wykonywanie złożonych instrukcji. Dokładnie te cechy przydają się w automatyzacji ataków.

Możliwość przetwarzania kontekstu liczącego nawet 200 tysięcy tokenów oznacza, że Claude może przeanalizować całe dokumenty firmowe, raporty bezpieczeństwa czy zbiory danych w jednym przebiegu. Dla hakerów to ogromna przewaga – mogą wgrać skradzione dane i natychmiast otrzymać ich syntezę, wyciągnięte kluczowe informacje czy listę potencjalnych celów do dalszych ataków.

Dodatkowo Anthropic od początku pozycjonował Claude jako bezpieczniejszą alternatywę dla innych LLM-ów, z naciskiem na "Constitutional AI" i wbudowane zabezpieczenia. Ironia sytuacji jest oczywista – nawet najbardziej bezpieczny model można wykorzystać, jeśli atakujący znajdą sposób na obejście ograniczeń.

Prawdopodobnie hakerzy stosowali techniki prompt injection lub wykorzystywali API w sposób, który omijał standardowe filtry bezpieczeństwa. Mogły to być subtelne manipulacje kontekstem, dzielenie złośliwych zadań na mniejsze, pozornie niewinne fragmenty, albo wykorzystanie luk w systemie moderacji treści. Grupy sponsorowane przez państwa dysponują zasobami i czasem na testowanie różnych metod obejścia zabezpieczeń.

Co ten incydent oznacza dla bezpieczeństwa AI

Ten przypadek potwierdza obawy ekspertów: duże modele językowe obniżają barierę wejścia dla cyberprzestępców. Zadania wymagające wcześniej zespołu specjalistów i tygodni pracy można teraz zautomatyzować za pomocą promptów.

Demokratyzacja dostępu do zaawansowanych narzędzi AI ma swoją ciemną stronę. Podczas gdy małe firmy i indywidualni twórcy zyskują możliwości wcześniej zarezerwowane dla korporacji, to samo dotyczy cyberprzestępców. Grupa hakerska, która wcześniej musiała zatrudniać lingwistów do tworzenia przekonujących wiadomości w różnych językach, teraz może to zlecić modelowi. Oszczędzone zasoby można przeznaczyć na inne elementy ataku.

Dla firm oferujących LLM-y to sygnał, że zabezpieczenia muszą ewoluować szybciej niż możliwości modeli. Anthropic prawdopodobnie wdroży dodatkowe mechanizmy wykrywania nadużyć. Wyścig zbrojeń między twórcami AI a hakerami dopiero się zaczyna.

Branża AI stoi przed dylematem: jak chronić modele przed nadużyciami, nie ograniczając jednocześnie ich użyteczności dla legalnych użytkowników. Zbyt restrykcyjne filtry mogą zablokować badaczy bezpieczeństwa testujących własne systemy. Zbyt luźne – otwierają furtkę dla cyberprzestępców. Znalezienie równowagi to jedno z największych wyzwań dla twórców LLM-ów w najbliższych latach.

Jeśli korzystasz z Claude w swojej firmie, to dobry moment na przegląd polityk bezpieczeństwa i monitorowanie nietypowych wzorców użycia. AI to potężne narzędzie – w dobrych i złych rękach.

Warto również edukować pracowników o nowych zagrożeniach. Phishing wspierany przez AI jest znacznie bardziej przekonujący niż tradycyjne próby – brak błędów językowych, spersonalizowana treść, kontekst dopasowany do odbiorcy. Standardowe szkolenia z cyberbezpieczeństwa mogą już nie wystarczać.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.