Administracja Trumpa promuje Mythos. Tydzień temu był zagrożeniem
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
„Departament Obrony uznał Anthropic za zagrożenie w łańcuchu dostaw” — to oficjalne stanowisko z kwietnia 2026. Tydzień później? Urzędnicy administracji Trumpa zachęcają banki do testowania Mythos, najnowszego modelu tej samej firmy.
Coś tu nie gra. Ocena ryzyka była błędna albo ktoś zmienił zdanie bardzo szybko. Sprawdźmy, co się dzieje.
Departament Obrony USA dodał Anthropic do listy firm stanowiących potencjalne ryzyko w łańcuchu dostaw. Powód? Nie został oficjalnie ujawniony. Timing jest wymowny — decyzja zapadła w momencie rosnących obaw o bezpieczeństwo modeli AI w sektorze finansowym i obronnym.
Jednocześnie — według raportu TechCrunch — urzędnicy z administracji Trumpa prowadzą rozmowy z przedstawicielami sektora bankowego. Sugerują testy Mythos, modelu Anthropic o ograniczonym dostępie. To model, który firma celowo nie udostępniła publicznie, trzymając go w zamkniętym obiegu dla wybranych partnerów.

Anthropic zaprezentowało Mythos jako odpowiedź na obawy dotyczące bezpieczeństwa AI w zastosowaniach wysokiego ryzyka. Model został zaprojektowany z myślą o sektorach wymagających szczególnej ochrony danych — finanse, zdrowie, infrastruktura krytyczna.
Kluczowe cechy Mythos według Anthropic:
Solidnie. Problem w tym, że Pentagon najwyraźniej nie jest przekonany — albo ma informacje, których publicznie nie ujawnia.
Sektor bankowy to jeden z najbardziej regulowanych obszarów gospodarki. Banki muszą spełniać wymogi dotyczące ochrony danych klientów, przeciwdziałania praniu pieniędzy (AML), weryfikacji tożsamości (KYC) i raportowania transakcji.
AI może tu pomóc — pod warunkiem że spełnia standardy bezpieczeństwa. Dlatego zainteresowanie Mythos jest logiczne: model obiecuje kontrolę i audytowalność, których nie oferują publiczne wersje ChatGPT czy Claude.
Administracja Trumpa chce, by amerykańskie banki miały przewagę technologiczną — bez ryzyka wycieku danych czy manipulacji. Pytanie: czy Mythos to właściwy wybór, skoro Pentagon ma wątpliwości?

Mamy dwie instytucje rządowe, które mówią coś zupełnie innego:
Departament Obrony: Anthropic to ryzyko w łańcuchu dostaw. Nie powinniśmy polegać na tej firmie w krytycznych systemach.
Urzędnicy administracji: Mythos od Anthropic to dobry wybór dla banków. Zachęcamy do testów.
Jak to możliwe? Kilka scenariuszy:
Pentagon ma inne wymagania niż banki. To, co jest ryzykiem dla obronności, nie musi być problemem dla finansów. Możliwe, że ocena DoD dotyczy specyficznych zastosowań wojskowych, a nie komercyjnych.
Administracja Trumpa może chcieć wzmocnić amerykańskie firmy AI w konkurencji z chińskimi odpowiednikami. Nawet jeśli Pentagon ma zastrzeżenia, priorytetem jest utrzymanie przewagi technologicznej USA.
Najprostsze wyjaśnienie: różne agencje rządowe nie rozmawiają ze sobą. Pentagon ocenia ryzyko według swoich kryteriów, administracja prowadzi własną politykę technologiczną. Efekt? Chaos komunikacyjny.

Jeśli prowadzisz firmę w Polsce i rozważasz wdrożenie AI w obszarach wrażliwych (finanse, dane osobowe, compliance), ta sytuacja pokazuje coś ważnego: nawet w USA nie ma jasnych standardów oceny ryzyka AI.
W Europie mamy AI Act, który wprowadza kategoryzację ryzyka (minimalne, ograniczone, wysokie, niedopuszczalne). Implementacja wciąż jest w toku, a interpretacje różnią się między krajami.
Praktyczny wniosek: jeśli planujesz wdrożenie AI w regulowanym sektorze, nie polegaj tylko na deklaracjach dostawcy. Przeprowadź własny audyt bezpieczeństwa, najlepiej z pomocą niezależnego eksperta.
Raport TechCrunch nie ujawnia, którzy konkretnie urzędnicy prowadzą rozmowy z bankami. Nie wiemy też, czy Anthropic było świadome tych działań, czy to inicjatywa rządowa bez udziału firmy.
Nie znamy szczegółów oceny Departamentu Obrony — czy dotyczy ona konkretnych luk w Mythos, czy ogólnej polityki wobec Anthropic jako firmy.
I najważniejsze: nie wiemy, czy banki faktycznie zdecydują się na testy. Zachęta to jedno, wdrożenie to drugie. Zwłaszcza gdy jedna agencja rządowa mówi „tak”, a druga „nie”.
Jeśli jesteś decydentem w banku lub firmie fintech, masz teraz dylemat: słuchać Pentagonu czy administracji? Odpowiedź nie jest oczywista. Jedno jest pewne — era, w której można było wdrażać AI bez pytania o bezpieczeństwo, się skończyła.
Na podstawie: TechCrunch
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar