Biznes
Biznes · 4 min czytania · 17 grudnia 2025

OpenAI stawia na Amazona. Umowa za 10 miliardów dolarów

Grafika ilustrująca: OpenAI stawia na Amazona. Umowa za 10 miliardów dolarów

Źródło: Link

AI dla Twojej firmy

Szkolenia, warsztaty i wdrożenia AI. Dopasowane do Twojego zespołu.

Sprawdź ofertę →

Powiązane tematy

OpenAI – firma za ChatGPT – właśnie dogadała się z Amazonem. Kwota: 10 miliardów dolarów. To przypomina kolejna wielka fuzja w Dolinie?

To coś innego. To sygnał, że nawet najbogatsze firmy AI odpuszczają sobie budowanie własnej infrastruktury.

O co właściwie chodzi

OpenAI będzie używać chipów AI zaprojektowanych przez Amazon Web Services. Mowa o procesorach Trainium i Inferentia – specjalistycznych układach do trenowania i uruchamiania modeli sztucznej inteligencji.

Trainium to chip treningowy. Gdy OpenAI uczy nową wersję GPT, potrzebuje potwornej mocy obliczeniowej. Tysiące procesorów. Tygodnie pracy. Inferentia z kolei odpowiada za działanie gotowych modeli – gdy wpisujesz prompt do ChatGPT, to właśnie taki chip generuje odpowiedź.

Negocjacje między firmami są – jak podają źródła – "bardzo płynne". Czyli co? Że szczegóły wciąż się zmieniają. Kwota może wzrosnąć. Zakres współpracy też. Nic nie jest zamknięte.

Dlaczego OpenAI odpuściło własne chipy

Sam Altman – szef OpenAI – jeszcze rok temu mówił o planach stworzenia własnych procesorów. Miało to kosztować dziesiątki miliardów. Miało uniezależnić firmę od Nvidii, która dziś kontroluje rynek chipów AI jak monopolista.

I nagle: cisza.

Zamiast budować fabryki półprzewodników, OpenAI podpisuje umowę z Amazonem. Dlaczego?

Bo projektowanie chipów to jedno. Ich produkcja – zupełnie inna bajka. Potrzeba lat, specjalistycznych fabryk (które kosztują miliardy) i armii inżynierów. Nvidia ma to wszystko. Amazon buduje od lat. OpenAI? Musiałoby zaczynać od zera.

Łatwiej kupić dostęp do gotowej infrastruktury. Szybciej. Bezpieczniej.

Co z tego ma Amazon

AWS – czyli chmura Amazona – konkuruje z Microsoft Azure i Google Cloud. Problem? Microsoft ma OpenAI jako partnera (zainwestował w firmę 13 miliardów dolarów). Google ma własne modele AI: Gemini.

Amazon miał... Alexę. Która gubi się w prostych pytaniach.

Teraz sytuacja się zmienia. Jeśli OpenAI będzie trenować swoje modele na chipach Amazona, AWS staje się kluczowym graczem w wyścigu AI. Nie jako twórca modeli – ale jako dostawca mocy obliczeniowej dla lidera rynku.

To jak być właścicielem złóż ropy w erze samochodów spalinowych. Nie musisz produkować aut. Wystarczy, że wszyscy tankują u ciebie.

Chipy Amazona kontra Nvidia – co wygrywa

Nvidia dominuje, bo jej chipy (seria H100, A100) są sprawdzone. Każda duża firma AI ich używa. Trainium i Inferentia? Nowsze rozwiązania, tańsze – ale wciąż niszowe.

Amazon twierdzi, że jego chipy są bardziej energooszczędne i tańsze w eksploatacji. Nvidia odpowiada, że jej procesory są szybsze i bardziej uniwersalne.

Kto ma rację? Pewnie obaj – w zależności od zastosowania.

Dla OpenAI liczy się jedno: dostępność. Nvidia nie nadąża z produkcją. Zamówienie chipów H100 to kolejka liczona w miesiącach. Amazon ma własne fabryki chipów i może dostarczać je na bieżąco.

Szybkość dostawy > maksymalna wydajność. Prosta kalkulacja.

Co to zmienia w rynku AI

Jeśli OpenAI – firma z najgłębszymi kieszeniami w branży AI – rezygnuje z budowania własnych chipów, inni pójdą tym samym tropem. Anthropic (twórcy Claude) już korzysta z AWS. Google ma własne TPU, ale to wyjątek – Google produkuje chipy od dekady.

Rynek się konsoliduje. Zamiast dziesiątek firm budujących własne procesory, zostanie kilka: Nvidia, AMD, Amazon, Google. Reszta będzie wynajmować moc obliczeniową.

Dla użytkowników ChatGPT czy innych narzędzi AI? Prawdopodobnie nic się nie zmieni. Model będzie działać tak samo – niezależnie od tego, czy pracuje na chipie Nvidii czy Amazona.

Ale w dłuższej perspektywie: niższe koszty infrastruktury mogą oznaczać tańsze subskrypcje.

Albo wyższe marże dla OpenAI. Czas pokaże.

Negocjacje nie są zamknięte

Źródła podkreślają, że umowa nie jest jeszcze finalna. "Bardzo płynna" sytuacja oznacza, że szczegóły mogą się zmienić. Może kwota wzrośnie do 15 miliardów. Może OpenAI wynegocjuje ekskluzywny dostęp do nowych chipów Amazona.

A może Microsoft – największy inwestor OpenAI – zablokuje część umowy. Bo przecież OpenAI korzysta głównie z Azure, chmury Microsoftu. Czy teraz będzie dzielić obciążenia między dwóch dostawców.

To polityka, nie tylko technologia. I tu zaczyna się ciekawie.

Podsumowanie

OpenAI stawia na Amazona, bo budowanie własnych chipów to za duże ryzyko i za długi czas oczekiwania. Amazon zyskuje klienta, który legitymizuje jego chipy AI. Nvidia traci fragment monopolu. Microsoft patrzy z boku – i pewnie negocjuje swoje warunki.

Za kilka lat może się okazać, że to był moment, w którym AWS stał się niewidocznym fundamentem całej rewolucji AI.

Albo że to był tylko kolejny kontrakt. Zobaczymy.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.