Modele AI
Modele AI · 6 min czytania · 24 lutego 2026

Anthropic oskarża DeepSeek o kradzież Claude. 24 tys. fałszywych kont

Anthropic oskarża DeepSeek o kradzież Claude. 24 tys. fałszywych kont

Źródło: Link

Kurs AI Evolution

118 lekcji od zera do eksperta. Bez kodowania.

Sprawdź kurs →
W skrócie:
  • Anthropic wykryło, że DeepSeek i dwie inne chińskie firmy AI stworzyły 24 tys. fałszywych kont i wysłały 16 mln zapytań do Claude
  • Celem była destylacja – technika kopiowania wiedzy z zaawansowanego modelu do własnego, tańszego
  • Anthropic zablokował kampanię, ale to pokazuje, jak łatwo obejść zabezpieczenia komercyjnych modeli AI
  • Sprawa trafia w sam środek debaty o eksporcie chipów AI do Chin i ochronie amerykańskich technologii

Dobra, powiedzmy to wprost: jeśli myślisz, że płacąc za dostęp do API modelu AI chronisz swoją technologię, mam dla Ciebie złe wieści. Anthropic właśnie złapało DeepSeek i dwie inne chińskie firmy AI na próbie wykradnięcia wiedzy z Claude'a. I nie była to jakaś amatorska operacja – mówimy o 24 tysiącach fałszywych kont i ponad 16 milionach zapytań.

W poniedziałek Anthropic opublikował oświadczenie, w którym opisał całą kampanię jako "działanie na skalę przemysłową". Firma zablokowała dostęp wszystkim zaangażowanym kontom. Szkoda już została wyrządzona. Pytanie brzmi: ile razy to się działo wcześniej, zanim ktoś w ogóle to zauważył?

Kampania destylacyjna wykorzystała tysiące fałszywych kont do wydobycia wiedzy z Claude'a

Destylacja AI: jak ukraść wiedzę bez kradzieży kodu

Zanim pójdziemy dalej, wyjaśnijmy sobie jedną rzecz. Destylacja (ang. distillation) to technika, w której używasz zaawansowanego modelu AI jako "nauczyciela" dla swojego własnego, prostszego modelu. Wysyłasz tysiące zapytań, zapisujesz odpowiedzi i trenujesz na nich własny system. Nie kradniesz kodu źródłowego – kradniesz wiedzę.

To jak gdybyś chodził na wykłady najlepszego profesora na świecie, nagrywał każde słowo, a potem uczył tego samego materiału swoich studentów. Legalnie? Technicznie tak. Etycznie? No właśnie.

DeepSeek i dwie inne nienazwane chińskie firmy stworzyły armię fałszywych kont. Każde konto wysyłało zapytania do Claude'a, zbierając odpowiedzi. 16 milionów zapytań to nie jest eksperyment. To systematyczne wydobywanie wiedzy.

Jak Anthropic to wykrył?

Anthropic nie podał szczegółów technicznych (zrozumiałe – po co ułatwiać życie następnym). Wspomniał o "nietypowych wzorcach użytkowania". Prawdopodobnie chodziło o:

  • Masowe tworzenie kont z podobnych adresów IP
  • Powtarzalne wzorce zapytań (te same pytania z lekko zmienionymi parametrami)
  • Nienaturalnie wysoka częstotliwość requestów z pojedynczych kont
  • Brak typowych zachowań użytkowników (np. przerw, błędów, eksploracji interfejsu)

Firma zareagowała szybko – zablokowała wszystkie podejrzane konta i wzmocniła systemy wykrywania. Ile podobnych kampanii trwa w tej chwili, tylko na mniejszą skalę?

Proces destylacji: zaawansowany model uczy prostszy system przez miliony interakcji

DeepSeek w centrum uwagi (znowu)

DeepSeek to nie pierwszy raz w nagłówkach. Ta chińska firma AI zasłynęła z tworzenia modeli, które – przynajmniej według ich twierdzeń – dorównują zachodnim gigantom, ale kosztują ułamek ceny w treningu. Ich model DeepSeek-V2 miał rzekomo kosztować mniej niż 6 milionów dolarów w treningu. Porównywalne modele od OpenAI czy Anthropic to setki milionów.

Jak to możliwe? Oficjalna wersja mówi o sprytnych optymalizacjach i efektywniejszej architekturze. Nieoficjalna – teraz mamy część odpowiedzi. Jeśli możesz "wypożyczyć" wiedzę z najlepszych modeli na świecie przez API, Twoje koszty treningu drastycznie spadają.

Sprawa trafia w sam środek debaty o eksporcie chipów AI do Chin. Administracja USA od miesięcy debatuje nad zaostrzeniem restrykcji na sprzedaż zaawansowanych układów Nvidia do chińskich firm. Argument? Ochrona amerykańskiej przewagi technologicznej w AI. Kontrargument? Chińskie firmy i tak znajdą sposób, żeby obejść ograniczenia.

Ta historia pokazuje, że problem nie leży tylko w chipach. Możesz ograniczyć dostęp do sprzętu. Jeśli Twój model jest dostępny przez API, stajesz się potencjalnym źródłem wiedzy dla konkurencji. Pentagon już wcześniej sygnalizował obawy związane z bezpieczeństwem modeli AI Jeśli chodzi o wojskowym.

Co to znaczy dla rynku AI?

Dla firm rozwijających modele AI to sygnał alarmowy. Jeśli udostępniasz swój model przez API, musisz zakładać, że ktoś będzie próbował go skopiować. Nie chodzi o paranoję – chodzi o realistyczną ocenę ryzyka.

Anthropic zareagował szybko. Ilu innych dostawców w ogóle monitoruje takie wzorce? OpenAI prawdopodobnie ma podobne systemy (choć nie publikują o tym raportów). Mniejsze firmy? Start-upy oferujące dostęp do swoich modeli? Wątpię, żeby wszystkie miały zasoby na zaawansowane wykrywanie destylacji.

Destylacja to nie tylko problem Chin

Zanim ktoś zacznie mówić o "chińskim zagrożeniu" – destylacja to standardowa praktyka w branży AI. OpenAI sam używa tej techniki do tworzenia tańszych wersji swoich modeli (np. GPT-3.5 jako "destylat" GPT-4o). Google robi to samo. Różnica leży w tym, kto jest właścicielem modelu źródłowego.

Kiedy destylujesz własny model – to optymalizacja. Kiedy destylujesz cudzy model bez zgody – to kradzież własności intelektualnej. Linia jest cienka.

Sprawa destylacji Claude'a to kolejny rozdział w geopolitycznej rywalizacji o dominację w AI

Co możesz z tym zrobić?

Jeśli jesteś użytkownikiem Claude'a (lub innego modelu przez API), to niewiele. Anthropic zajął się problemem po swojej stronie. Twoje dane z normalnego użytkowania są bezpieczne – firma nie sugeruje, żeby doszło do wycieku danych użytkowników.

Jeśli rozwijasz własny model AI i udostępniasz go przez API, zrób jedną rzecz: wdróż monitoring nietypowych wzorców użytkowania. Nie musisz budować systemu na poziomie Anthropic od razu. Podstawowe rzeczy jak:

  • Limity zapytań na konto (i ich egzekwowanie)
  • Wykrywanie masowego tworzenia kont z podobnych źródeł
  • Analiza powtarzalności zapytań (jeśli 100 kont pyta o to samo z drobnymi zmianami – to czerwona flaga)
  • Monitoring geograficzny (jeśli nagle dostajesz tysiące requestów z jednego regionu – sprawdź dlaczego)

To nie ochroni Cię w 100%, ale podniesie poprzeczkę dla potencjalnych atakujących.

Destylacja będzie narastać

Ta historia to nie jednorazowy incydent. To początek trendu. Im bardziej zaawansowane modele AI, tym większa motywacja do ich kopiowania. Im wyższe koszty treningu, tym bardziej opłacalna staje się destylacja.

Anthropic zablokował tę konkretną kampanię. Następna już pewnie trwa. Może na mniejszą skalę. Może bardziej wyrafinowana. Może z użyciem proxy i lepszego maskowania wzorców.

Branża AI musi się z tym zmierzyć. Albo modele staną się bardziej zamknięte (co ograniczy innowacje), albo firmy zaakceptują, że udostępnienie modelu przez API to zawsze ryzyko wycieku wiedzy. Nie ma trzeciej opcji.

Znam to. Sam pracowałem z API różnych modeli i widziałem, jak łatwo można automatyzować zapytania na masową skalę. Różnica między legalnym użytkowaniem a destylacją to często tylko intencja i skala. Technologia jest ta sama.

Czy regulacje nadążą za technologią, zanim destylacja stanie się standardem? Wątpię. Anthropic próbuje wpływać na regulacje AI, ale to proces powolny. Technologia ewoluuje szybciej niż prawo.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od 18 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.