Modele AI
Modele AI · 6 min czytania · 22 kwietnia 2026

Model Mythos Anthropic wyciekł. I to nie przez hakera

Model Mythos Anthropic wyciekł. I to nie przez hakera

Źródło: Link

Kurs AI Evolution

118 lekcji od zera do eksperta. Bez kodowania.

Sprawdź kurs →

Anthropic właśnie straciło kontrolę nad swoim najbardziej ryzykownym modelem AI. Mythos — narzędzie zaprojektowane do testowania cyberbezpieczeństwa, które firma celowo zatrzymała przed publicznym wydaniem — dostało się w ręce „małej grupy nieautoryzowanych użytkowników”. Nie przez atak hakerski. Przez podwykonawcę.

Bloomberg donosi, że wyciek potwierdził anonimowy członek grupy, który sam jest „podwykonawcą zewnętrznym dla Anthropic”. Firma twierdzi, że sytuacja jest pod kontrolą. Pytanie brzmi: jak długo?

Czym jest Mythos i dlaczego został zatrzymany

Mythos to model AI zbudowany specjalnie do zadań związanych z cyberbezpieczeństwem. Nie jest to chatbot do rozmów — to narzędzie, które potrafi analizować luki w systemach, symulować ataki i testować zabezpieczenia. Anthropic od początku wiedziało, że taki model w złych rękach może być bronią.

Dlatego firma podjęła decyzję, której nie podejmują wszyscy: zatrzymała Mythos przed publicznym wydaniem. Nie było API, nie było dostępu dla klientów, nie było wersji testowej. Model miał pozostać wewnętrznym narzędziem, dostępnym tylko dla wyselekcjonowanych zespołów.

Mythos — model AI, który miał pozostać za zamkniętymi drzwiami
Mythos — model AI, który miał pozostać za zamkniętymi drzwiami

Teraz wiemy, że ta strategia nie wystarczyła. Ktoś z wewnątrz — lub z bardzo bliska — udostępnił model dalej. Nie przez złośliwość, ale przez luźne procedury dostępu.

Jak doszło do wycieku? Podwykonawca z dostępem

Bloomberg nie podaje nazwiska ani szczegółów. Potwierdza za to, że osoba, która ujawniła wyciek, sama ma dostęp do Mythos jako „podwykonawca zewnętrzny dla Anthropic”. To oznacza, że firma nie tylko dała dostęp do wrażliwego modelu osobom spoza organizacji — ale nie zablokowała możliwości dalszego udostępniania.

Nie znamy skali wycieku. Nie wiemy, ile osób ma teraz dostęp do Mythos. Nie wiemy, czy ktoś już używa go do rzeczywistych ataków. Wiemy jedno: model, który miał być „zbyt niebezpieczny do publicznego wydania”, nie jest już pod kontrolą firmy, która go stworzyła.

Anthropic wydało oświadczenie, że „sytuacja jest monitorowana” i że „podjęto kroki w celu ograniczenia dostępu”. Nie podano, jakie kroki ani kiedy zostały wdrożone. Nie podano też, czy model został zdalnie wyłączony — jeśli w ogóle taka opcja istnieje.

Dlaczego to ważne właśnie teraz

Marzec 2026 to moment, w którym modele AI do cyberbezpieczeństwa stają się standardem. Anthropic rozmawia z rządem USA o współpracy w obszarze bezpieczeństwa, a Pentagon testuje AI do obrony przed atakami. W tym samym czasie firmy takie jak OpenAI, Google i xAI budują własne narzędzia do testowania penetracyjnego.

Różnica? Tamte modele są publicznie dostępne, z jasno określonymi limitami i monitoringiem. Mythos miał być inny — bardziej zaawansowany, bardziej niebezpieczny, bardziej kontrolowany. Teraz jest po prostu poza kontrolą.

Kontrola nad modelem AI to nie tylko kwestia technologii — to procedury dostępu
Kontrola nad modelem AI to nie tylko kwestia technologii — to procedury dostępu

Co Mythos potrafi i kto może go teraz użyć

Anthropic nie ujawniło pełnej specyfikacji Mythos. Z dostępnych informacji wynika jednak, że model został wytrenowany na danych związanych z:

  • Analizą luk w zabezpieczeniach (CVE, exploity, zero-day)
  • Symulacją ataków typu penetration testing
  • Automatyzacją testów bezpieczeństwa w kodzie i infrastrukturze
  • Identyfikacją wzorców ataków w logach systemowych

To nie jest narzędzie do pisania phishingowych maili. To model, który potrafi znaleźć dziurę w systemie i zasugerować, jak ją wykorzystać. W rękach zespołu bezpieczeństwa — bezcenne. W rękach kogokolwiek innego — ryzyko.

Teraz pytanie brzmi: kto ma dostęp? Bloomberg mówi o „małej grupie”. Jeśli chodzi o AI „mała grupa” może oznaczać 5 osób albo 50. Jeśli choć jedna z nich zdecyduje się udostępnić model dalej — skala problemu rośnie wykładniczo.

Czy Anthropic może zdalnie wyłączyć model?

To zależy od architektury. Jeśli Mythos działa jako API — tak, firma może odciąć dostęp. Jeśli ktoś pobrał wagi modelu (pliki z parametrami) — nie, model działa lokalnie i Anthropic nie ma nad nim kontroli.

Firma nie potwierdziła, która opcja ma miejsce. To samo w sobie jest sygnałem.

Czy inne firmy AI mają podobne problemy?

Tak. OpenAI miało wyciek wewnętrznych dokumentów w 2024 roku. Google Deepmind miało problem z nieautoryzowanym dostępem do wczesnej wersji Gemini 2.0 w 2025 roku. Meta przyznało, że część wag Llama 4 Scout wyciekła przed oficjalnym wydaniem.

Różnica? Tamte modele były albo już publiczne, albo przeznaczone do publicznego wydania. Mythos miał nigdy nie opuścić wewnętrznych serwerów Anthropic.

Wycieki modeli AI to nie wyjątek — to rosnący trend w branży
Wycieki modeli AI to nie wyjątek — to rosnący trend w branży

Problem nie leży w technologii. Problem leży w procedurach dostępu. Firmy AI zatrudniają setki podwykonawców — do adnotacji danych, testowania modeli, audytów bezpieczeństwa. Każdy z nich dostaje dostęp do fragmentu infrastruktury. Każdy z nich jest potencjalnym punktem wycieku.

Anthropic od miesięcy testuje mechanizmy kontroli nad swoimi modelami, ale Mythos pokazuje, że nawet najlepsze zabezpieczenia techniczne nie działają, jeśli ktoś z wewnątrz ma zbyt szeroki dostęp.

Co to zmienia dla firm używających AI w cyberbezpieczeństwie

Jeśli prowadzisz firmę i używasz AI do testowania bezpieczeństwa — ta sprawa dotyczy Cię bezpośrednio. Nie chodzi o to, że Mythos zaatakuje Twoje systemy (prawdopodobnie nie). Dlatego, że pokazuje, jak łatwo narzędzia AI mogą wyjść poza kontrolę.

Kilka konkretów:

  • Audytuj dostęp do narzędzi AI — kto w Twojej firmie ma dostęp do modeli, API, kluczy? Czy to są tylko pracownicy, czy też podwykonawcy?
  • Monitoruj logi użycia — jeśli używasz API do Claude, GPT-5 czy Gemini 3 Pro Jeśli chodzi o bezpieczeństwa, śledź, kto i kiedy z nich korzysta
  • Zakładaj, że każdy model może wyciec — nie polegaj na „wewnętrznym dostępie” jako jedynej warstwie ochrony

Firmy takie jak Hyatt wdrażają AI dla dziesiątek tysięcy pracowników, ale większość z nich nie ma procedur kontroli dostępu na poziomie, który by zatrzymał wyciek typu Mythos.

Co się stanie za 6 miesięcy

Jeśli Anthropic nie odzyska kontroli nad Mythos, zobaczymy jeden z dwóch scenariuszy. Albo model wycieknie publicznie — i wtedy każdy będzie mógł go pobrać i użyć. Albo pozostanie w rękach „małej grupy”, która będzie go sprzedawać na czarnym rynku.

Oba scenariusze są złe. Pierwszy oznacza, że narzędzie do łamania zabezpieczeń staje się ogólnodostępne. Drugi oznacza, że tylko ci z budżetem i kontaktami będą mieli do niego dostęp — co daje im przewagę nad resztą.

Anthropic prawdopodobnie wyciągnie wnioski i zaostrzy procedury. To nie zmienia faktu, że Mythos już jest na wolności. Każda inna firma AI — OpenAI, Google, xAI, Meta — ma teraz powód, żeby przyjrzeć się własnym procedurom dostępu.

Bo jeśli Anthropic, firma, która stawia bezpieczeństwo AI na pierwszym miejscu, może stracić kontrolę nad swoim najbardziej wrażliwym modelem — to każdy może.

Na podstawie: The Verge AI, Bloomberg

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od 18 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.