Anthropic blokuje Mythos. Cyberbezpieczeństwo czy strach przed utratą kontroli?
Źródło: Link
Źródło: Link
Szkolenia, warsztaty i wdrożenia AI. Dopasowane do Twojego zespołu.
Model AI na tyle dobry w znajdowaniu luk bezpieczeństwa, że jego twórcy boją się go wypuścić. Anthropic właśnie ogłosił, że ogranicza dostęp do swojego najnowszego modelu Mythos – oficjalnie ze względów bezpieczeństwa. Im dłużej patrzysz na tę decyzję, tym więcej pytań się pojawia.
W kwietniu 2026 roku Anthropic poinformował, że model Mythos – ich najnowsze dziecko – jest zbyt skuteczny w identyfikowaniu exploitów w powszechnie używanym oprogramowaniu. Firma twierdzi, że pełne udostępnienie modelu mogłoby zagrozić bezpieczeństwu internetu.
Oficjalne uzasadnienie brzmi sensownie: jeśli model potrafi znajdować luki szybciej niż ludzie zdążą je załatać, to w rękach złych aktorów staje się bronią. Anthropic nie chce być odpowiedzialny za falę cyberataków wykorzystujących ich technologię.
Problem w tym, że Anthropic nie podał konkretów. Jakie dokładnie exploity Mythos potrafi znajdować? W jakim oprogramowaniu? Jak szybko? Zero szczegółów, same ogólniki o "zagrożeniu dla bezpieczeństwa globalnego".
Gdy firma AI mówi "ufajcie nam, to zbyt niebezpieczne", ale nie pokazuje dowodów, pojawia się naturalne pytanie: czy chodzi o bezpieczeństwo świata, czy o coś innego?
Anthropic ma historię ostrożnego podejścia do publikacji modeli. Blokowali już dostęp do Claude dla zewnętrznych agentów AI, argumentując to kontrolą jakości. Teraz powtarzają ten schemat z Mythos.
Załóżmy na chwilę, że Anthropic mówi prawdę i Mythos rzeczywiście jest wyjątkowo skuteczny w znajdowaniu luk. To rodzi kolejne pytania.
Po pierwsze: jeśli model potrafi znajdować exploity, to czy nie powinien być dostępny dla zespołów bezpieczeństwa? Firmy takie jak Google, Microsoft czy Amazon mają armie specjalistów od cyberbezpieczeństwa. Dostęp do Mythos mógłby pomóc im łatać luki zanim znajdą je hakerzy.
Po drugie: ograniczenie dostępu nie oznacza, że technologia znika. Jeśli Anthropic stworzył taki model, to ktoś inny też może. OpenAI, Google, a nawet mniejsze laboratoria pracują nad podobnymi rozwiązaniami. Blokowanie jednego modelu niewiele zmienia.
Decyzja Anthropic może stworzyć niebezpieczny precedens. Jeśli laboratoria AI zaczną blokować modele pod pretekstem bezpieczeństwa – bez zewnętrznego audytu, bez przejrzystych kryteriów – to kto kontroluje, czy te decyzje są uzasadnione?
To nie jest abstrakcyjny problem. OpenAI już teraz decyduje, które firmy mogą korzystać z ich najbardziej zaawansowanych funkcji. Anthropic idzie tą samą drogą.
Istnieje alternatywna teoria: Anthropic blokuje Mythos Powodem jest to, że nie chce pokazać, jak bardzo wyprzedza konkurencję. Albo – co równie prawdopodobne – jak bardzo jej NIE wyprzedza.
Jeśli Mythos faktycznie jest przełomowy, to pełne udostępnienie pozwoliłoby konkurencji zobaczyć, jakie techniki Anthropic zastosował. To cenna wiedza, którą łatwo skopiować. Ograniczony dostęp chroni przewagę technologiczną.
Z drugiej strony: jeśli Mythos nie jest aż tak rewolucyjny, to ograniczenie dostępu pozwala utrzymać mit o "zbyt potężnej technologii". Dobra strategia marketingowa – ludzie zawsze chcą tego, czego nie mogą mieć.
Anthropic od początku budował swoją markę na "odpowiedzialnym AI". To ich główna przewaga nad OpenAI, które postrzegane jest jako bardziej agresywne w wyścigu technologicznym. Blokowanie Mythos wpisuje się w tę narrację: "jesteśmy na tyle odpowiedzialni, że powstrzymujemy się od publikacji".
Odpowiedzialność bez przejrzystości to tylko PR. Jeśli Anthropic naprawdę troszczy się o bezpieczeństwo, powinien opublikować szczegółowy raport: jakie luki Mythos znalazł, w jakim oprogramowaniu, jak szybko. Bez tego trudno odróżnić troskę od strategii biznesowej.
Decyzja Anthropic ma szersze konsekwencje niż tylko jeden zablokowany model. To sygnał, że laboratoria AI zaczynają traktować swoje najbardziej zaawansowane modele jak broń – coś, co wymaga kontroli dostępu i specjalnych pozwoleń.
Z jednej strony to rozsądne. AI faktycznie może być wykorzystane do szkodliwych celów. Już teraz widzimy, jak ludzie bezkrytycznie ufają wynikom AI, co otwiera drzwi do manipulacji.
Z drugiej strony: kto decyduje, co jest "zbyt niebezpieczne"? Czy to powinny być prywatne firmy, rządy, niezależne organizacje? Anthropic podjął tę decyzję samodzielnie, bez zewnętrznego audytu.
Sytuacja z Mythos pokazuje, że branża AI operuje w próżni regulacyjnej. Nie ma jasnych zasad, kto może mieć dostęp do jakich modeli i na jakich warunkach. Każde laboratorium ustala własne reguły.
To nie może działać długoterminowo. Jeśli modele AI rzeczywiście stają się na tyle potężne, że mogą zagrażać bezpieczeństwu, to potrzebujemy przejrzystych, publicznie dostępnych kryteriów oceny ryzyka. Nie może to być decyzja garstki firm technologicznych.
Regulacje zawsze spóźniają się za technologią. Zanim rządy zdążą stworzyć sensowne ramy prawne, laboratoria AI będą miały kolejne modele – jeszcze bardziej zaawansowane, jeszcze trudniejsze do kontrolowania.
Jeśli Anthropic naprawdę chce, żebyśmy uwierzyli w ich troskę o bezpieczeństwo, powinni odpowiedzieć na kilka podstawowych pytań:
Bez odpowiedzi na te pytania decyzja Anthropic wygląda jak arbitralna kontrola dostępu do technologii, nie jak przemyślana strategia bezpieczeństwa.
To rodzi kolejne pytanie: jeśli prywatne firmy mogą decydować, kto ma dostęp do najbardziej zaawansowanych narzędzi AI, to czy nie budujemy nowej formy nierówności technologicznej? Gdzie ci, którzy mają dostęp do Mythos, Claude czy zamkniętych wersji modeli open-source, będą mieli przewagę nad resztą?
Anthropic może mieć dobre intencje. Bez przejrzystości i zewnętrznej weryfikacji trudno odróżnić troskę o bezpieczeństwo od strategii biznesowej. I to właśnie powinno nas martwić najbardziej – nie to, że Mythos jest zablokowany, ale to, że nie wiemy dlaczego naprawdę.
Na podstawie: TechCrunch
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar