Amazon daje Anthropic $5 mld. W zamian dostaje zobowiązanie na $100 mld
Źródło: Link
Źródło: Link
Szkolenia, warsztaty i wdrożenia AI. Dopasowane do Twojego zespołu.
Amazon właśnie wpłacił Anthropic kolejne 5 miliardów dolarów. Anthropic w zamian zobowiązało się wydać 100 miliardów na usługi chmurowe AWS. Jeśli myślisz, że to inwestycja — to tylko połowa prawdy. To przede wszystkim umowa handlowa, w której pieniądze krążą w zamkniętym obiegu.
Nazywają to „circular AI deal” — okrężną transakcją AI. Mechanizm jest prosty: gigant technologiczny wpompowuje kasę w startup AI, a startup zobowiązuje się wydać wielokrotność tej kwoty na infrastrukturę tego samego giganta. Amazon de facto płaci sam sobie, jednocześnie wiążąc Anthropic długoterminową umową na chmurę.
Czy to zły deal? Niekoniecznie. Warto jednak wiedzieć, jak naprawdę wygląda finansowanie AI w 2026 roku.

Amazon zainwestował w Anthropic łącznie już kilkanaście miliardów dolarów — ta transakcja to kolejna runda. Anthropic, firma stojąca za Claude Code i modelami Claude Opus 4.6 oraz Sonnet 4.6, zobowiązało się wydać 100 miliardów dolarów na usługi AWS w najbliższych latach.
Matematyka jest prosta: Amazon wpłaca 5, dostaje z powrotem 100. Oczywiście te 100 miliardów to nie zysk netto — to przychód z usług chmurowych, które kosztują Amazon rzeczywiste zasoby (serwery, energię, infrastrukturę). Marża na chmurze jest jednak wysoka. Co ważniejsze: Amazon wiąże Anthropic na lata.
Dlaczego to ważne? Anthropic nie może teraz po prostu przejść na Google Cloud czy Microsoft Azure. Zobowiązanie na 100 miliardów to długoterminowa umowa, która de facto zamyka firmę w ekosystemie AWS. To nie partnerstwo — to zależność.
Anthropic trenuje swoje modele na infrastrukturze AWS. Każdy trening Claude Opus 4.6 to setki tysięcy godzin obliczeń na GPU (a w przypadku najnowszych modeli — coraz częściej na specjalizowanych chipach jak AWS Trainium). Koszt? Miliony dolarów za jeden przebieg.
Dodatkowo: każde zapytanie użytkownika do Claude to wywołanie API, które działa na serwerach AWS. Miliony zapytań dziennie oznaczają miliony mikropłatności za compute, storage, transfer danych. W skali roku? Właśnie te 100 miliardów.

To nie pierwsza taka transakcja i na pewno nie ostatnia. Microsoft zainwestował w OpenAI ponad 13 miliardów dolarów — i zgadnij, na jakiej chmurze działa OpenAI Codex i cały ChatGPT? Dokładnie: Azure.
Google robi to samo z własnymi modelami (Gemini 3 Pro działa oczywiście na Google Cloud), a także inwestuje w startupy AI z podobnym warunkiem: używajcie naszej infrastruktury.
Efekt? Rynek AI dzieli się na strefy wpływów — nie ze względu na technologię, ale ze względu na to, kto płaci rachunki za chmurę. Startupy AI mogą budować najlepsze modele na świecie, ale ostatecznie to giganci chmurowi kontrolują infrastrukturę, na której te modele działają.
Po pierwsze: konsolidacja. Małe firmy AI nie mają szans konkurować z Anthropic czy OpenAI, bo nie dostaną takich warunków od AWS czy Azure. Giganci chmurowi inwestują tylko w tych, którzy mogą wydać miliardy na ich usługi.
Po drugie: lock-in. Anthropic nie może teraz po prostu zmienić dostawcy chmury, nawet gdyby Google Cloud oferował lepsze warunki. Zobowiązanie na 100 miliardów to umowa, która wiąże na lata.
Po trzecie: ceny. Jeśli Amazon, Microsoft i Google kontrolują infrastrukturę, na której działają wszystkie główne modele AI — to oni dyktują ceny. I nie ma powodu, żeby je obniżać.

Zależy, jak na to patrzeć. Z jednej strony: Anthropic dostaje 5 miliardów dolarów kapitału, który może przeznaczyć na rozwój, badania, zatrudnienie najlepszych inżynierów. To ogromna przewaga nad startupami, które muszą walczyć o każdy milion z funduszy VC.
Z drugiej strony: Anthropic zobowiązuje się wydać 100 miliardów na AWS. Każda decyzja technologiczna — od wyboru chipów po architekturę infrastruktury — musi uwzględniać ten kontrakt. Nie możesz po prostu powiedzieć „przeniesiemy trening na tańszą chmurę”, bo jesteś związany umową.
Dodatkowo: jeśli Anthropic kiedykolwiek będzie chciał się uniezależnić (np. zbudować własne centra danych, jak zrobiło to Meta), będzie musiał najpierw wywiązać się z zobowiązania wobec AWS. A to może zająć lata.
Dla polskich firm korzystających z Claude (czy innych modeli AI hostowanych na AWS) to oznacza jedno: ceny nie spadną. Jeśli Anthropic jest związany z AWS, to nie ma presji, żeby szukać tańszych alternatyw. A AWS nie ma powodu, żeby obniżać ceny w Europie — zwłaszcza że regulacje RODO i AI Act zwiększają koszty compliance.
Jeśli prowadzisz firmę w Polsce i używasz automatyzacji AI opartej na Claude — możesz spodziewać się, że koszty API pozostaną wysokie. Alternatywa? Modele open-source (jak Llama 4 Scout) hostowane na własnej infrastrukturze — ale to wymaga kompetencji technicznych, których większość firm nie ma.
Amazon dał Anthropic 5 miliardów, ale tak naprawdę kupił sobie klienta na 100 miliardów. To nie jest inwestycja w klasycznym sensie — to długoterminowa umowa handlowa opakowana w narrację o „wspieraniu innowacji AI”.
Czy to źle? Niekoniecznie. Anthropic dostaje kapitał, Amazon dostaje przychody, a użytkownicy dostają lepsze modele (bo Anthropic może sobie pozwolić na większe inwestycje w badania). Warto jednak wiedzieć, że rynek AI coraz bardziej przypomina rynek chmurowy: kilku graczy, wysokie bariery wejścia, długoterminowe lock-iny.
Jeśli myślałeś, że AI to otwarta konkurencja najlepszych technologii — to się mylisz. To konkurencja portfeli i umów na infrastrukturę. A w tej grze wygrywają ci, którzy kontrolują serwery.
Na podstawie: TechCrunch AI
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar