Modele AI
Modele AI · 2 min czytania · 16 listopada 2025

Chińscy hakerzy wykorzystali Claude do automatyzacji ataków

Chińscy hakerzy wykorzystali Claude do automatyzacji ataków

Źródło: Link

Anthropic właśnie potwierdził to, czego obawiały się firmy bezpieczeństwa od miesięcy: hakerzy wspierani przez chiński rząd użyli modelu Claude do zautomatyzowania kampanii cyberataków. We wrześniu przeprowadzili około 30 ataków na korporacje i instytucje rządowe. AI wykonało lwią część roboty.

Informację podał Wall Street Journal w czwartek, powołując się na oficjalne oświadczenie Anthropic. Skala automatyzacji robi wrażenie – według firmy od 80% do 90% procesu ataku zrealizował Claude. To nie są już eksperymenty. To operacyjne wykorzystanie AI w realnych kampaniach szpiegowskich.

Jak hakerzy sponsorowani przez państwo wykorzystali Claude

Hakerzy wykorzystali Claude do automatyzacji najbardziej czasochłonnych elementów cyberataków. Model prawdopodobnie pomagał w rozpoznaniu celów, przygotowaniu spersonalizowanych wiadomości phishingowych i analizie zebranych danych. Szczegóły techniczne pozostają ograniczone ze względów bezpieczeństwa (co akurat ma sens).

Anthropic nie ujawnił, jak wykrył nadużycia ani jakie konkretnie funkcje Claude zostały wykorzystane. Firma podkreśla jednak, że incydent miał miejsce we wrześniu 2024 roku i dotyczył zorganizowanej kampanii – nie pojedynczych prób.

Dlaczego hakerzy wybrali właśnie Claude

Claude zyskał reputację jednego z najbardziej zaawansowanych modeli językowych, konkurującego bezpośrednio z GPT-4 i Gemini. Jego mocną stroną jest przetwarzanie długich kontekstów i precyzyjne wykonywanie złożonych instrukcji. Dokładnie te cechy przydają się w automatyzacji ataków.

Dodatkowo Anthropic od początku pozycjonował Claude jako bezpieczniejszą alternatywę dla innych LLM-ów, z naciskiem na "Constitutional AI" i wbudowane zabezpieczenia. Ironia sytuacji jest oczywista – nawet najbardziej bezpieczny model można wykorzystać, jeśli atakujący znajdą sposób na obejście ograniczeń.

Co ten incydent oznacza dla bezpieczeństwa AI

Ten przypadek potwierdza obawy ekspertów: duże modele językowe obniżają barierę wejścia dla cyberprzestępców. Zadania wymagające wcześniej zespołu specjalistów i tygodni pracy można teraz zautomatyzować za pomocą promptów.

Dla firm oferujących LLM-y to sygnał, że zabezpieczenia muszą ewoluować szybciej niż możliwości modeli. Anthropic prawdopodobnie wdroży dodatkowe mechanizmy wykrywania nadużyć. Wyścig zbrojeń między twórcami AI a hakerami dopiero się zaczyna.

Jeśli korzystasz z Claude w swojej firmie, to dobry moment na przegląd polityk bezpieczeństwa i monitorowanie nietypowych wzorców użycia. AI to potężne narzędzie – w dobrych i złych rękach.

Źródła

Informacje o artykule

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.