OpenAI płaci Microsoftowi więcej, niż myślisz
Źródło: Link
Źródło: Link
Audyty, wdrożenia, szkolenia sprzedażowe i AI. Dopasowane do zespołu i procesów.
Zastanawiałeś się kiedyś, ile naprawdę kosztuje utrzymanie ChatGPT? Albo dlaczego Microsoft tak chętnie pompuje miliardy w OpenAI? Właśnie dostałeś odpowiedź. Wyciekłe dokumenty rzucają światło na finansowe kulisy partnerstwa, które definiuje dzisiejszy rynek AI.
Dokumenty, które trafiły do sieci, ujawniają szczegóły umowy o podziale przychodów między OpenAI a Microsoftem. Po raz pierwszy możemy zajrzeć za kulisy jednej z najważniejszych współprac technologicznych ostatnich lat. Relacja obu firm to coś więcej niż standardowa umowa B2B. Microsoft dostarcza infrastrukturę chmurową Azure, na której działają wszystkie modele OpenAI – od GPT-5 po najnowsze wersje.
Warto pamiętać, że partnerstwo to nie zaczęło się od miliardowych inwestycji. Microsoft po raz pierwszy zainwestował w OpenAI już w 2019 roku, wkładając wtedy miliard dolarów w stosunkowo młodą firmę. Kolejne rundy finansowania – w tym ogromne transze z lat 2021 i 2023 – stopniowo kształtowały relację, którą dziś znamy. Azure stał się nie tylko infrastrukturą, lecz kręgosłupem całego ekosystemu OpenAI.
OpenAI przekazuje Microsoftowi znaczącą część swoich przychodów za korzystanie z infrastruktury Azure. Umowa o podziale przychodów działa prosto: Microsoft dostaje procent od każdej transakcji generowanej przez usługi OpenAI. Dokładne stawki różnią się w zależności od typu usługi i poziomu wykorzystania zasobów obliczeniowych.
Teraz wiesz, dlaczego Microsoft zainwestował w OpenAI ponad 13 miliardów dolarów. Firma z Redmond nie tylko zyskuje dostęp do najnowocześniejszych modeli AI – zarabia też na każdym zapytaniu wysłanym do ChatGPT czy API OpenAI.
To nieprzypadkowy model biznesowy. Microsoft odtwarza w świecie AI schemat, który świetnie znamy z rynku gier wideo – sprzedajesz konsolę po kosztach lub poniżej nich, zarabiasz na każdej grze i każdej subskrypcji. Tutaj rolę konsoli gra infrastruktura Azure, a rolę gier – każde zapytanie do modelu językowego. Im więcej użytkowników korzysta z ChatGPT, tym więcej płaci OpenAI Microsoftowi, niezależnie od tego, czy użytkownik jest na planie darmowym, czy płatnym.
Dokumenty ujawniają konkretne koszty inferencji, czyli przetwarzania pojedynczych zapytań przez modele językowe. Okazuje się, że uruchomienie modelu i wygenerowanie odpowiedzi to proces znacznie droższy, niż większość użytkowników mogłaby przypuszczać. Stąd te wszystkie limity w darmowych planach.
Koszty różnią się drastycznie w zależności od modelu. Najnowsze, największe wersje GPT wymagają znacznie więcej mocy obliczeniowej niż wcześniejsze generacje. To tłumaczy różne poziomy cenowe dla różnych modeli w API OpenAI – mniejsze modele są tańsze w utrzymaniu, większe oferują lepszą jakość przy wyższych kosztach.
Żeby lepiej to zwizualizować: inferencja dużego modelu językowego wymaga jednoczesnej pracy dziesiątek, a niekiedy setek procesorów graficznych. Każdy z nich pobiera znaczące ilości energii, wymaga chłodzenia i zajmuje fizyczną przestrzeń w centrum danych. Gdy miliony użytkowników zadają pytania w tym samym czasie, skala tego przedsięwzięcia staje się niewyobrażalna. Dlatego OpenAI musi płacić Microsoftowi nie tylko za same serwery, ale za cały ekosystem – sieć, przechowywanie danych, redundancję i bezpieczeństwo.
Wyciek tych dokumentów jest ważny nie tylko ze względu na konkretne liczby. Ujawnia strukturalną zależność, która ma wpływ na decyzje produktowe i cenowe całej branży. OpenAI, mimo że jest najgłośniejszą firmą w sektorze AI, nie kontroluje własnej infrastruktury obliczeniowej na poziomie, który pozwoliłby jej działać całkowicie niezależnie od Microsoftu.
To wyjaśnia kilka rzeczy, które obserwujemy na rynku:
Te liczby pokazują prawdziwą skalę ekonomicznego wyzwania przed firmami AI. Utrzymanie i skalowanie modeli językowych wymaga ogromnych nakładów finansowych na infrastrukturę. Microsoft, dysponując własną chmurą Azure, ma przewagę konkurencyjną nad innymi dostawcami AI, którzy muszą płacić zewnętrznym dostawcom chmury.
Dla Ciebie jako użytkownika to sygnał, że ceny usług AI prawdopodobnie nie spadną drastycznie w najbliższym czasie. Koszty infrastruktury pozostają wysokie. Każde ulepszenie modeli często oznacza jeszcze większe wymagania obliczeniowe. Z drugiej strony, konkurencja rośnie – Google, Anthropic i inni gracze mogą wymusić obniżki cen, walcząc o udział w rynku.
Warto też obserwować, jak OpenAI reaguje na tę sytuację w dłuższej perspektywie. Firma coraz aktywniej rozmawia o budowie własnych centrów danych i inwestycjach w dedykowane układy obliczeniowe. Projekt Stargate, ogłoszony na początku 2025 roku, zakłada wydanie nawet 500 miliardów dolarów na infrastrukturę AI w Stanach Zjednoczonych. Częściowo to odpowiedź na dokładnie ten problem – chęć uniezależnienia się od pośredników i obniżenia kosztów operacyjnych w długim terminie.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar