Model Mythos Anthropic wyciekł. I to nie przez hakera
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Anthropic właśnie straciło kontrolę nad swoim najbardziej ryzykownym modelem AI. Mythos — narzędzie zaprojektowane do testowania cyberbezpieczeństwa, które firma celowo zatrzymała przed publicznym wydaniem — dostało się w ręce „małej grupy nieautoryzowanych użytkowników”. Nie przez atak hakerski. Przez podwykonawcę.
Bloomberg donosi, że wyciek potwierdził anonimowy członek grupy, który sam jest „podwykonawcą zewnętrznym dla Anthropic”. Firma twierdzi, że sytuacja jest pod kontrolą. Pytanie brzmi: jak długo?
Mythos to model AI zbudowany specjalnie do zadań związanych z cyberbezpieczeństwem. Nie jest to chatbot do rozmów — to narzędzie, które potrafi analizować luki w systemach, symulować ataki i testować zabezpieczenia. Anthropic od początku wiedziało, że taki model w złych rękach może być bronią.
Dlatego firma podjęła decyzję, której nie podejmują wszyscy: zatrzymała Mythos przed publicznym wydaniem. Nie było API, nie było dostępu dla klientów, nie było wersji testowej. Model miał pozostać wewnętrznym narzędziem, dostępnym tylko dla wyselekcjonowanych zespołów.

Teraz wiemy, że ta strategia nie wystarczyła. Ktoś z wewnątrz — lub z bardzo bliska — udostępnił model dalej. Nie przez złośliwość, ale przez luźne procedury dostępu.
Bloomberg nie podaje nazwiska ani szczegółów. Potwierdza za to, że osoba, która ujawniła wyciek, sama ma dostęp do Mythos jako „podwykonawca zewnętrzny dla Anthropic”. To oznacza, że firma nie tylko dała dostęp do wrażliwego modelu osobom spoza organizacji — ale nie zablokowała możliwości dalszego udostępniania.
Nie znamy skali wycieku. Nie wiemy, ile osób ma teraz dostęp do Mythos. Nie wiemy, czy ktoś już używa go do rzeczywistych ataków. Wiemy jedno: model, który miał być „zbyt niebezpieczny do publicznego wydania”, nie jest już pod kontrolą firmy, która go stworzyła.
Anthropic wydało oświadczenie, że „sytuacja jest monitorowana” i że „podjęto kroki w celu ograniczenia dostępu”. Nie podano, jakie kroki ani kiedy zostały wdrożone. Nie podano też, czy model został zdalnie wyłączony — jeśli w ogóle taka opcja istnieje.
Marzec 2026 to moment, w którym modele AI do cyberbezpieczeństwa stają się standardem. Anthropic rozmawia z rządem USA o współpracy w obszarze bezpieczeństwa, a Pentagon testuje AI do obrony przed atakami. W tym samym czasie firmy takie jak OpenAI, Google i xAI budują własne narzędzia do testowania penetracyjnego.
Różnica? Tamte modele są publicznie dostępne, z jasno określonymi limitami i monitoringiem. Mythos miał być inny — bardziej zaawansowany, bardziej niebezpieczny, bardziej kontrolowany. Teraz jest po prostu poza kontrolą.

Anthropic nie ujawniło pełnej specyfikacji Mythos. Z dostępnych informacji wynika jednak, że model został wytrenowany na danych związanych z:
To nie jest narzędzie do pisania phishingowych maili. To model, który potrafi znaleźć dziurę w systemie i zasugerować, jak ją wykorzystać. W rękach zespołu bezpieczeństwa — bezcenne. W rękach kogokolwiek innego — ryzyko.
Teraz pytanie brzmi: kto ma dostęp? Bloomberg mówi o „małej grupie”. Jeśli chodzi o AI „mała grupa” może oznaczać 5 osób albo 50. Jeśli choć jedna z nich zdecyduje się udostępnić model dalej — skala problemu rośnie wykładniczo.
To zależy od architektury. Jeśli Mythos działa jako API — tak, firma może odciąć dostęp. Jeśli ktoś pobrał wagi modelu (pliki z parametrami) — nie, model działa lokalnie i Anthropic nie ma nad nim kontroli.
Firma nie potwierdziła, która opcja ma miejsce. To samo w sobie jest sygnałem.
Tak. OpenAI miało wyciek wewnętrznych dokumentów w 2024 roku. Google Deepmind miało problem z nieautoryzowanym dostępem do wczesnej wersji Gemini 2.0 w 2025 roku. Meta przyznało, że część wag Llama 4 Scout wyciekła przed oficjalnym wydaniem.
Różnica? Tamte modele były albo już publiczne, albo przeznaczone do publicznego wydania. Mythos miał nigdy nie opuścić wewnętrznych serwerów Anthropic.

Problem nie leży w technologii. Problem leży w procedurach dostępu. Firmy AI zatrudniają setki podwykonawców — do adnotacji danych, testowania modeli, audytów bezpieczeństwa. Każdy z nich dostaje dostęp do fragmentu infrastruktury. Każdy z nich jest potencjalnym punktem wycieku.
Anthropic od miesięcy testuje mechanizmy kontroli nad swoimi modelami, ale Mythos pokazuje, że nawet najlepsze zabezpieczenia techniczne nie działają, jeśli ktoś z wewnątrz ma zbyt szeroki dostęp.
Jeśli prowadzisz firmę i używasz AI do testowania bezpieczeństwa — ta sprawa dotyczy Cię bezpośrednio. Nie chodzi o to, że Mythos zaatakuje Twoje systemy (prawdopodobnie nie). Dlatego, że pokazuje, jak łatwo narzędzia AI mogą wyjść poza kontrolę.
Kilka konkretów:
Firmy takie jak Hyatt wdrażają AI dla dziesiątek tysięcy pracowników, ale większość z nich nie ma procedur kontroli dostępu na poziomie, który by zatrzymał wyciek typu Mythos.
Jeśli Anthropic nie odzyska kontroli nad Mythos, zobaczymy jeden z dwóch scenariuszy. Albo model wycieknie publicznie — i wtedy każdy będzie mógł go pobrać i użyć. Albo pozostanie w rękach „małej grupy”, która będzie go sprzedawać na czarnym rynku.
Oba scenariusze są złe. Pierwszy oznacza, że narzędzie do łamania zabezpieczeń staje się ogólnodostępne. Drugi oznacza, że tylko ci z budżetem i kontaktami będą mieli do niego dostęp — co daje im przewagę nad resztą.
Anthropic prawdopodobnie wyciągnie wnioski i zaostrzy procedury. To nie zmienia faktu, że Mythos już jest na wolności. Każda inna firma AI — OpenAI, Google, xAI, Meta — ma teraz powód, żeby przyjrzeć się własnym procedurom dostępu.
Bo jeśli Anthropic, firma, która stawia bezpieczeństwo AI na pierwszym miejscu, może stracić kontrolę nad swoim najbardziej wrażliwym modelem — to każdy może.
Na podstawie: The Verge AI, Bloomberg
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar