Anthropic oskarża DeepSeek o kradzież Claude. 24 tys. fałszywych kont
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Dobra, powiedzmy to wprost: jeśli myślisz, że płacąc za dostęp do API modelu AI chronisz swoją technologię, mam dla Ciebie złe wieści. Anthropic właśnie złapało DeepSeek i dwie inne chińskie firmy AI na próbie wykradnięcia wiedzy z Claude'a. I nie była to jakaś amatorska operacja – mówimy o 24 tysiącach fałszywych kont i ponad 16 milionach zapytań.
W poniedziałek Anthropic opublikował oświadczenie, w którym opisał całą kampanię jako "działanie na skalę przemysłową". Firma zablokowała dostęp wszystkim zaangażowanym kontom. Szkoda już została wyrządzona. Pytanie brzmi: ile razy to się działo wcześniej, zanim ktoś w ogóle to zauważył?
Zanim pójdziemy dalej, wyjaśnijmy sobie jedną rzecz. Destylacja (ang. distillation) to technika, w której używasz zaawansowanego modelu AI jako "nauczyciela" dla swojego własnego, prostszego modelu. Wysyłasz tysiące zapytań, zapisujesz odpowiedzi i trenujesz na nich własny system. Nie kradniesz kodu źródłowego – kradniesz wiedzę.
To jak gdybyś chodził na wykłady najlepszego profesora na świecie, nagrywał każde słowo, a potem uczył tego samego materiału swoich studentów. Legalnie? Technicznie tak. Etycznie? No właśnie.
DeepSeek i dwie inne nienazwane chińskie firmy stworzyły armię fałszywych kont. Każde konto wysyłało zapytania do Claude'a, zbierając odpowiedzi. 16 milionów zapytań to nie jest eksperyment. To systematyczne wydobywanie wiedzy.
Anthropic nie podał szczegółów technicznych (zrozumiałe – po co ułatwiać życie następnym). Wspomniał o "nietypowych wzorcach użytkowania". Prawdopodobnie chodziło o:
Firma zareagowała szybko – zablokowała wszystkie podejrzane konta i wzmocniła systemy wykrywania. Ile podobnych kampanii trwa w tej chwili, tylko na mniejszą skalę?
DeepSeek to nie pierwszy raz w nagłówkach. Ta chińska firma AI zasłynęła z tworzenia modeli, które – przynajmniej według ich twierdzeń – dorównują zachodnim gigantom, ale kosztują ułamek ceny w treningu. Ich model DeepSeek-V2 miał rzekomo kosztować mniej niż 6 milionów dolarów w treningu. Porównywalne modele od OpenAI czy Anthropic to setki milionów.
Jak to możliwe? Oficjalna wersja mówi o sprytnych optymalizacjach i efektywniejszej architekturze. Nieoficjalna – teraz mamy część odpowiedzi. Jeśli możesz "wypożyczyć" wiedzę z najlepszych modeli na świecie przez API, Twoje koszty treningu drastycznie spadają.
Sprawa trafia w sam środek debaty o eksporcie chipów AI do Chin. Administracja USA od miesięcy debatuje nad zaostrzeniem restrykcji na sprzedaż zaawansowanych układów Nvidia do chińskich firm. Argument? Ochrona amerykańskiej przewagi technologicznej w AI. Kontrargument? Chińskie firmy i tak znajdą sposób, żeby obejść ograniczenia.
Ta historia pokazuje, że problem nie leży tylko w chipach. Możesz ograniczyć dostęp do sprzętu. Jeśli Twój model jest dostępny przez API, stajesz się potencjalnym źródłem wiedzy dla konkurencji. Pentagon już wcześniej sygnalizował obawy związane z bezpieczeństwem modeli AI Jeśli chodzi o wojskowym.
Dla firm rozwijających modele AI to sygnał alarmowy. Jeśli udostępniasz swój model przez API, musisz zakładać, że ktoś będzie próbował go skopiować. Nie chodzi o paranoję – chodzi o realistyczną ocenę ryzyka.
Anthropic zareagował szybko. Ilu innych dostawców w ogóle monitoruje takie wzorce? OpenAI prawdopodobnie ma podobne systemy (choć nie publikują o tym raportów). Mniejsze firmy? Start-upy oferujące dostęp do swoich modeli? Wątpię, żeby wszystkie miały zasoby na zaawansowane wykrywanie destylacji.
Zanim ktoś zacznie mówić o "chińskim zagrożeniu" – destylacja to standardowa praktyka w branży AI. OpenAI sam używa tej techniki do tworzenia tańszych wersji swoich modeli (np. GPT-3.5 jako "destylat" GPT-4o). Google robi to samo. Różnica leży w tym, kto jest właścicielem modelu źródłowego.
Kiedy destylujesz własny model – to optymalizacja. Kiedy destylujesz cudzy model bez zgody – to kradzież własności intelektualnej. Linia jest cienka.
Jeśli jesteś użytkownikiem Claude'a (lub innego modelu przez API), to niewiele. Anthropic zajął się problemem po swojej stronie. Twoje dane z normalnego użytkowania są bezpieczne – firma nie sugeruje, żeby doszło do wycieku danych użytkowników.
Jeśli rozwijasz własny model AI i udostępniasz go przez API, zrób jedną rzecz: wdróż monitoring nietypowych wzorców użytkowania. Nie musisz budować systemu na poziomie Anthropic od razu. Podstawowe rzeczy jak:
To nie ochroni Cię w 100%, ale podniesie poprzeczkę dla potencjalnych atakujących.
Ta historia to nie jednorazowy incydent. To początek trendu. Im bardziej zaawansowane modele AI, tym większa motywacja do ich kopiowania. Im wyższe koszty treningu, tym bardziej opłacalna staje się destylacja.
Anthropic zablokował tę konkretną kampanię. Następna już pewnie trwa. Może na mniejszą skalę. Może bardziej wyrafinowana. Może z użyciem proxy i lepszego maskowania wzorców.
Branża AI musi się z tym zmierzyć. Albo modele staną się bardziej zamknięte (co ograniczy innowacje), albo firmy zaakceptują, że udostępnienie modelu przez API to zawsze ryzyko wycieku wiedzy. Nie ma trzeciej opcji.
Znam to. Sam pracowałem z API różnych modeli i widziałem, jak łatwo można automatyzować zapytania na masową skalę. Różnica między legalnym użytkowaniem a destylacją to często tylko intencja i skala. Technologia jest ta sama.
Czy regulacje nadążą za technologią, zanim destylacja stanie się standardem? Wątpię. Anthropic próbuje wpływać na regulacje AI, ale to proces powolny. Technologia ewoluuje szybciej niż prawo.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar