Google celował w OpenAI. Trafił w NVIDIĘ
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Google szykował się do starcia z OpenAI. Wyciągnął Gemini 3, naładował arsenał TPU i… trafił w NVIDIĘ. Kto by pomyślał?
Jeszcze rok temu wszyscy patrzyli na OpenAI jak na niekwestionowanego lidera. Dziś? Google pokazuje, że ma nie tylko model konkurencyjny wobec GPT-4o, ale — co ważniejsze — infrastrukturę, która robi go niezależnym. I to właśnie ta niezależność może boleć.
Gemini 3 działa na TPU piątej generacji. Tensor Processing Units, zaprojektowane przez Google specjalnie pod AI.
I tu zaczyna się problem NVIDII.
Bo przez lata wszyscy kupowali ich karty. H100, A100 — to był standard. Chcesz trenować model? Potrzebujesz GPU od NVIDII. Nie ma dyskusji.
Tylko że Google właśnie pokazał: wcale nie musisz.
TPU v5 oferuje wydajność porównywalną z topowymi GPU, ale — i to kluczowe — Google ma je na własność. Nie płaci NVIDII miesięcznie. Nie czeka pół roku na dostawy. Po prostu ma. I używa.
To nie jest decyzja ostatniej chwili. Google inwestuje w TPU od 2016 roku. Pierwsza generacja powstała po to, żeby przyspieszyć wnioskowanie w modelach takich jak AlphaGo. Każda kolejna generacja była krokiem w stronę pełnej niezależności sprzętowej. Dziś, przy piątej generacji, ta droga dobiegła do miejsca, gdzie TPU staje się realną — nie tylko teoretyczną — alternatywą dla GPU.
Warto rozumieć różnicę architektoniczną. GPU to procesory graficzne zaadaptowane do obliczeń równoległych. Doskonałe, elastyczne, ale zaprojektowane z myślą o szerokim zastosowaniu. TPU to układ stworzony z jedną myślą: operacje macierzowe dla sieci neuronowych. Węższy zakres zastosowań, ale w tym zakresie — znacznie wyższa efektywność energetyczna i szybkość.
Nowa wersja Gemini nie przyszła sama. Przyszła z całą infrastrukturą: TPU, optymalizacją energetyczną, integracją z Google Cloud. To nie jest pojedyncze narzędzie. To platforma.
OpenAI? Nadal siedzi na cudzym sprzęcie. Microsoft im pomaga, jasne. Ale zależność pozostaje zależnością.
Google buduje niezależność. I robi to głośno, żeby wszyscy słyszeli.
Praktyczny wymiar tego ekosystemu jest trudny do przecenienia. Kiedy Google chce zoptymalizować Gemini pod konkretne zadanie — powiedzmy, szybsze wnioskowanie przy mniejszym zużyciu prądu — może modyfikować zarówno model, jak i sprzęt, na którym działa. To możliwość, której OpenAI po prostu nie ma. Musi dostosowywać model do cudzego hardware'u, nie hardware do swojego modelu.
Google Cloud z kolei oferuje dostęp do TPU zewnętrznym klientom. To podwójny zysk: firma używa własnej infrastruktury do budowania własnych modeli, a przy okazji sprzedaje dostęp do tej infrastruktury innym. NVIDIA sprzedaje sprzęt raz. Google zarabia na nim wielokrotnie.
Jeśli jesteś startupem AI — nadal kupujesz NVIDIĘ. Nie masz wyboru. Nie stać cię na projektowanie własnych chipów.
Ale jeśli jesteś Google, Meta, Amazon? Projektujesz własne chipy. Inwestujesz w TPU, Trainium, własne rozwiązania. Bo możesz. I bo się opłaca.
NVIDIA traci nie klientów — traci gigantów. A to giganci płacą najwięcej.
Meta rozwija własne chipy MTIA. Amazon inwestuje w Trainium i Inferentia. Apple ma Neural Engine. Trend jest czytelny: każda firma, która może sobie pozwolić na własny silicon, zaczyna w niego inwestować. NVIDIA pozostaje kluczowym graczem dla reszty rynku, ale górna półka — tam, gdzie marże są najgrubsze — powoli się wysuwa spod jej kontroli.
Większość obserwatorów śledzi wojnę modeli. GPT-4o kontra Gemini kontra Claude. Benchmarki, testy, porównania. Który model lepiej pisze kod, który lepiej rozumuje, który jest tańszy w użyciu.
To ważne — ale to tylko powierzchnia.
Pod spodem toczy się drugi wyścig: kto kontroluje infrastrukturę. Kto nie musi czekać na dostawy chipów. Kto może skalować własne modele bez oglądania się na zewnętrznych dostawców. Kto ma pełną widoczność w łańcuchu: od architektury sprzętu, przez trening modelu, po wdrożenie produkcyjne.
Google jest jedną z niewielu firm na świecie, która może powiedzieć, że wygrywa na obu poziomach jednocześnie. I właśnie dlatego ogłoszenie Gemini 3 nie było tylko prezentacją nowego modelu — było demonstracją siły systemowej.
Google szedł po OpenAI. Chciał udowodnić, że Gemini to poważna alternatywa dla GPT-4. I udowodnił — model stoi na równi z najlepszymi.
Przy okazji pokazał jednak coś jeszcze.
Że przyszłość AI to nie tylko lepsze modele. To kontrola nad sprzętem. Nad infrastrukturą. Nad całym łańcuchem dostaw i produkcji.
NVIDIA przez lata była nietykalnym monopolistą. Teraz? Patrzy, jak najwięksi gracze budują własne rozwiązania. I pewnie zastanawia się: jak to się stało, że staliśmy się ofiarą uboczną wojny, która miała toczyć się gdzie indziej?
Może to nie koniec tej historii. Ale na pewno jej zwrot akcji.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar