Biznes
Biznes · 4 min czytania · 6 listopada 2025

Google chwali się nowym TPU. Anthropic podpisuje kontrakt za miliardy

Google chwali się nowym TPU. Anthropic podpisuje kontrakt za miliardy - ilustracja AI

Źródło: Link

AI dla Twojej firmy

Szkolenia, warsztaty i wdrożenia AI. Dopasowane do Twojego zespołu.

Sprawdź ofertę →

Powiązane tematy

Google Cloud właśnie ogłosił swoją najwydajniejszą infrastrukturę do trenowania i uruchamiania modeli AI. Siódma generacja Tensor Processing Units (TPU v7) ma oferować czterokrotnie lepszą wydajność niż poprzednia wersja. Jednocześnie firma zabezpieczyła wielomiliardowy kontrakt z Anthropic – twórcą Claude.

Timing nie jest przypadkowy. Popyt na infrastrukturę AI rośnie szybciej niż dostawy chipów. Każdy duży gracz technologiczny walczy o klientów gotowych płacić za moc obliczeniową. Google wyraźnie postanowił zagrać na dwóch frontach: własnym sprzętem i strategicznymi partnerstwami.

TPU v7 – cztery razy szybciej

Nowa generacja procesorów Google jest dostępna w Google Cloud już teraz. Firma chwali się czterokrotnym wzrostem wydajności w porównaniu do TPU v6, choć szczegóły techniczne pozostają dość ogólnikowe. TPU v7 zostały zaprojektowane z myślą o trenowaniu dużych modeli językowych i ich wdrażaniu na produkcji.

Warto przypomnieć, że historia TPU sięga 2016 roku, kiedy Google po raz pierwszy zaprezentował własne układy do akceleracji obliczeń tensorowych. Od tamtej pory każda kolejna generacja była odpowiedzią na rosnące wymagania wewnętrznych projektów – od wyszukiwarki po Google Translate. TPU v7 to jednak skok skierowany już wprost w stronę zewnętrznych klientów chmurowych, którzy potrzebują mocy obliczeniowej do trenowania modeli na własne potrzeby.

W praktyce czterokrotny wzrost wydajności oznacza, że zadanie, które na TPU v6 zajmowało tydzień, powinno skończyć się w około dwa dni. Dla firm iterujących szybko nad własnymi modelami – skracającymi czas od eksperymentu do wdrożenia – to różnica, która bezpośrednio przekłada się na koszty i tempo pracy.

Google rozszerza też swoją ofertę o procesory oparte na architekturze Arm. To ciekawy ruch – Arm zdobywa coraz większy udział w centrach danych, głównie dzięki lepszej efektywności energetycznej. Dla firm płacących gigantyczne rachunki za prąd (a trenowanie modeli AI to prawdziwy pożeracz energii) każda oszczędność się liczy. Szacuje się, że trening jednego dużego modelu językowego może zużywać tyle energii, co kilkaset gospodarstw domowych przez cały rok – dlatego efektywność energetyczna przestaje być kwestią wizerunkową, a staje się twardym argumentem biznesowym.

Anthropic stawia na infrastrukturę Google

Równolegle z ogłoszeniem nowego sprzętu Google potwierdził wieloletni kontrakt z Anthropic warty miliardy dolarów. Twórca Claude będzie korzystać z infrastruktury Google Cloud do trenowania i uruchamiania swoich modeli.

To strategiczny układ dla obu stron. Anthropic dostaje dostęp do najnowszych TPU i gwarancję mocy obliczeniowej na lata. Google zabezpiecza sobie prestiżowego klienta i dowód, że jego infrastruktura sprawdza się w najbardziej wymagających scenariuszach. Claude konkuruje bezpośrednio z GPT-4o i innymi czołowymi modelami – wymagania są tu maksymalne.

Nie bez znaczenia jest też kontekst inwestycyjny. Google zainwestował już wcześniej znaczące środki bezpośrednio w Anthropic, podobnie jak Amazon. Kontrakt obliczeniowy to kolejna warstwa tej relacji – zamiast ograniczać się do roli udziałowca, Google staje się też kluczowym dostawcą infrastruktury. To model, który dobrze znamy z relacji MicrosoftOpenAI: kapitał i moc obliczeniowa idą w parze, wiążąc obie strony silniej niż sam udział finansowy.

Dla Anthropic wybór Google Cloud zamiast konkurencyjnych rozwiązań – takich jak chipy Trainium od Amazona czy GPU od NVIDII – to też sygnał dla rynku. Firma znana z nacisku na bezpieczeństwo i odpowiedzialne skalowanie AI nie zdecydowałaby się na wieloletnią umowę, gdyby nie miała pewności co do niezawodności i skalowalności infrastruktury.

Wyścig infrastrukturalny nabiera tempa

Google nie działa w próżni. Microsoft inwestuje miliardy w OpenAI i własne centra danych. Amazon Web Services rozwija swoje chipy Trainium i Inferentia. NVIDIA, mimo dominacji na rynku GPU, też patrzy przez ramię na konkurencję.

Warto zauważyć, że budowanie własnych chipów to długoterminowy zakład. Projektowanie, testowanie i wdrażanie nowej generacji sprzętu trwa latami. Google pracuje nad TPU od ponad dekady i dopiero teraz zbiera owoce tej konsekwencji – mając własną, niezależną od NVIDII ścieżkę rozwoju sprzętu. To daje mu przewagę, której Microsoft czy Amazon jeszcze w pełni nie osiągnęły.

Dla Ciebie jako użytkownika końcowego to oznacza jedno: modele AI będą szybsze i tańsze w użyciu. Większa konkurencja między dostawcami infrastruktury przekłada się na niższe ceny i lepszą dostępność. Anthropic może trenować kolejne wersje Claude szybciej, a Google może oferować swoje usługi AI w konkurencyjnych cenach.

Pytanie brzmi: czy TPU v7 faktycznie dorównuje lub przewyższa konkurencję? Google tradycyjnie nie ujawnia wszystkich szczegółów technicznych, więc porównania będą możliwe dopiero po niezależnych testach. Na razie mamy obietnice i jeden potwierdzony fakt – Anthropic wybrał Google, a to coś znaczy.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.