Armia USA używa Claude do celowania. Klienci uciekają
Źródło: Link
Źródło: Link
118 lekcji bez kodowania. ChatGPT, Claude, Gemini, automatyzacje. Notatnik AI i AI Coach w cenie.
"Modele Anthropic są wykorzystywane w wielu decyzjach targetingowych" – to nie cytat z dystopijnego thrillera. To rzeczywistość marca 2026 roku, kiedy USA kontynuuje operacje powietrzne przeciwko Iranowi.
Claude pomaga armii amerykańskiej wybierać cele do ataku. Jednocześnie Anthropic traci klientów z branży obronnej szybciej niż może powiedzieć "odpowiedzialne AI". Paradoks? Raczej konsekwencja decyzji podjętych kilka miesięcy temu.

Anthropic, firma która jeszcze rok temu pozycjonowała się jako najbardziej etyczny gracz na rynku AI, podpisała umowę z Pentagonem. Claude, znany dotąd głównie z pomocy w pisaniu kodu i analizie dokumentów, teraz wspiera oficerów w podejmowaniu decyzji o tym, co i kiedy zaatakować.
Szczegóły techniczne pozostają tajne. Wiadomo jednak, że modele Claude są wykorzystywane do:
W praktyce AI pomaga decydować, kto żyje, a kto umiera.
Oficjalne stanowisko firmy mówi o "wspieraniu bezpieczeństwa narodowego" i "odpowiedzialnym wykorzystaniu technologii w obronie demokracji". Nieoficjalnie? Kontrakty rządowe to stabilne, wielomilionowe przychody w czasach, gdy koszty trenowania modeli AI rosną wykładniczo.
Decyzja stanowi radykalny zwrot w stosunku do wcześniejszej polityki firmy. W 2024 roku Anthropic odmawiało współpracy z sektorem militarnym.

Ironia sytuacji polega na tym, że Anthropic dostarcza AI dla armii USA i jednocześnie traci klientów z prywatnego sektora defense-tech. Firmy zajmujące się technologiami obronnymi masowo rezygnują ze współpracy.
Powody są dwa i oba mają sens biznesowy:
Po pierwsze – ryzyko reputacyjne. Startupy i firmy technologiczne nie chcą być kojarzone z kontrowersjami wokół wykorzystania AI w operacjach bojowych. Zwłaszcza gdy media donoszą o cywilnych ofiarach ataków, w których Claude odgrywał rolę doradczą.
Po drugie – niepewność prawna. Współpraca z firmą, której modele są używane w aktywnych operacjach wojskowych, może komplikować własne kontrakty i relacje z międzynarodowymi partnerami. Szczególnie w Europie, gdzie regulacje dotyczące militarnego wykorzystania AI są znacznie bardziej restrykcyjne niż w USA.
Lista firm, które zerwały kontrakty z Anthropic, nie jest publicznie dostępna (NDA działają w obie strony). Źródła branżowe potwierdzają jednak, że dotyczy to co najmniej kilkunastu średnich i dużych graczy z sektora defense-tech.
Dla Anthropic to podwójny cios. Firma traci nie tylko przychody, ale też dostęp do specjalistycznych przypadków użycia, które pomagały doskonalić modele w niszowych zastosowaniach obronnych.
Sytuacja Anthropic pokazuje fundamentalny konflikt, z którym mierzą się wszystkie firmy AI: gdzie przebiega granica między "odpowiedzialnym rozwojem technologii" a "nie możemy sobie pozwolić na odmowę takich kontraktów"?
OpenAI przeszło podobną drogę w 2023 roku, zmieniając politykę użytkowania i otwierając się na współpracę z Pentagonem. Google wycofało się z projektu Maven po protestach pracowników, by później wrócić do wojskowych kontraktów tylnymi drzwiami. Microsoft nigdy nie ukrywał swoich ambicji w sektorze obronnym.
Anthropic było ostatnim bastionem "czystej" etyki AI. Teraz ten bastion upadł.

Decyzja Anthropic i reakcja rynku pokazują, że branża AI wchodzi w nową fazę. Czas startupowych ideałów i manifestów o "AI dla dobra ludzkości" się kończy. Zaczyna się era twardych wyborów biznesowych.
Jeśli rozważasz wdrożenie AI w swoich procesach, masz sygnał ostrzegawczy: dostawca, którego dziś wybierzesz, jutro może być uwikłany w kontrowersje wpływające na Twoją reputację. Due diligence musi teraz obejmować nie tylko możliwości techniczne, ale też politykę etyczną i kontrakty rządowe dostawcy.
Dla polskich firm korzystających z Claude (a jest ich coraz więcej, szczególnie w sektorze finansowym i prawniczym) to moment na rewizję umów i ocenę ryzyka reputacyjnego. Pytanie nie brzmi "czy będziemy dalej używać Claude", ale "czy jesteśmy gotowi na pytania klientów o to, dlaczego korzystamy z AI, które pomaga w operacjach wojskowych"?
Rynek agentów AI i zaawansowanych modeli językowych będzie się konsolidował wokół dwóch obozów: tych, którzy pracują z wojskiem, i tych, którzy tego nie robią. Neutralność przestaje być opcją.
Anthropic postawiło na Pentagon. Teraz płaci cenę w postaci ucieczki klientów komercyjnych. Czy to dobra strategia długoterminowa? Zobaczymy za rok. Jedno jest pewne: era niewinności AI dobiegła końca. Technologia, która miała być neutralna, stała się narzędziem geopolityki. Każdy gracz na rynku musi teraz wybrać swoją stronę.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar