Biznes
Biznes · 4 min czytania · 26 października 2025

NVIDIA i AMD nie boją się zagrożenia ze strony chipów ASIC

Grafika ilustrująca: NVIDIA i AMD nie boją się zagrożenia ze strony chipów ASIC

Źródło: Link

AI dla Twojej firmy

Szkolenia, warsztaty i wdrożenia AI. Dopasowane do Twojego zespołu.

Sprawdź ofertę →

Rynek AI miał się zmienić pod naporem chipów ASIC. Obiecywały wyższe osiągi przy niższym poborze mocy. Tymczasem NVIDIA i AMD notują kolejne kwartały wzrostów, a ich GPU wciąż stanowią fundament infrastruktury AI. Co poszło nie tak?

Application Specific Integrated Circuits – chipy zaprojektowane pod konkretne zadania – miały być naturalnym krokiem ewolucji. Google z TPU, Amazon z Trainium, Microsoft z Maia. Wszyscy wielcy gracze zainwestowali miliardy w rozwój własnych rozwiązań. Logika była prosta: po co płacić NVIDII za uniwersalne GPU, skoro można zbudować chip idealnie dopasowany do własnych potrzeb?

Teoria brzmiała przekonująco. ASIC zaprojektowany specjalnie pod operacje mnożenia macierzy – serce każdego modelu językowego – powinien bić GPU na głowę zarówno pod względem szybkości, jak i efektywności energetycznej. Koszty prądu w centrach danych liczonych w megawatach robią z tego argument finansowy, nie tylko techniczny. I mimo to GPU trzymają pozycję.

Elastyczność bije specjalizację w świecie AI

Problem z ASIC-ami pojawia się w momencie, gdy modele AI ewoluują szybciej niż cykle produkcyjne chipów. Zaprojektowanie i wyprodukowanie dedykowanego układu to proces trwający 18-24 miesiące. W tym czasie architektura transformerów może ulec znaczącym zmianom. Twój drogi ASIC staje się rozwiązaniem wczorajszych problemów.

Dobrym przykładem jest dynamika ostatnich lat. Gdy część firm przymierzała się do zamówienia dedykowanych układów pod trening modeli opartych na architekturze BERT, branża przeszła na GPT i duże modele autoregresywne. Chwilę później pojawiły się modele mieszanki ekspertów (MoE), zmieniające proporcje obliczeń w sposób, którego żaden ASIC z 2022 roku nie przewidywał. Elastyczność przestaje być luksusem, a staje się wymogiem przetrwania.

GPU oferują coś, czego ASIC-y nigdy nie zapewnią – uniwersalność. Ten sam chip H100 od NVIDII obsłuży trening GPT, generowanie obrazów przez Stable Diffusion i analizę danych medycznych. Nie musisz przeprojektowywać całej infrastruktury, gdy zmieniasz model lub metodę treningu. A w AI zmiany są jedyną stałą.

Ekosystem CUDA jako niewidoczna fosa ochronna

NVIDIA zbudowała coś więcej niż szybkie chipy – stworzyła ekosystem, z którego trudno wyjść. CUDA, biblioteki cuDNN, framework TensorRT to narzędzia, które inżynierowie znają od lat. Przesiadka na ASIC-i oznacza przepisanie kodu, przeszkolenie zespołów i ryzyko, że coś przestanie działać. Nikt tego nie lubi.

To nie jest tylko kwestia przyzwyczajenia. Przez ponad dekadę CUDA stała się językiem, w którym zapisana jest wiedza środowiska badawczego. Większość tutoriali, kursów, artykułów naukowych i gotowych implementacji zakłada jej obecność. Startup budujący nowy produkt AI sięgnie po sprawdzone narzędzie, bo nie może sobie pozwolić na miesiące debugowania egzotycznej platformy sprzętowej. Tak działa efekt sieciowy – i właśnie on chroni NVIDIĘ skuteczniej niż jakikolwiek patent.

AMD z kolei stawia na ROCm, próbując zbudować alternatywę dla CUDA. Choć ich układy Instinct MI300 oferują konkurencyjną wydajność, to właśnie ekosystem oprogramowania decyduje o wyborze. Firmy wolą płacić więcej za sprawdzone rozwiązanie niż oszczędzać na eksperymentach z nową platformą.

Kiedy ASIC-i mają sens

Dedykowane chipy sprawdzają się w jednym scenariuszu – gdy masz ogromną skalę i powtarzalne zadanie. Google może sobie pozwolić na TPU, bo uruchamia te same modele na tysiącach serwerów przez lata. Dla większości firm taki model biznesowy nie ma sensu.

Różnica między Google a typową firmą wdrażającą AI jest zasadnicza. Gigant z Mountain View obsługuje miliardy zapytań dziennie do własnych modeli i sam kontroluje zarówno oprogramowanie, jak i sprzęt. Może sobie pozwolić na optymalizację pod jeden konkretny przypadek użycia, bo ten przypadek generuje przychody na skalę trudną do wyobrażenia. Firma zatrudniająca kilkudziesięciu inżynierów, korzystająca z kilku różnych modeli i zmieniająca strategie co rok, działa w zupełnie innej rzeczywistości.

Warto też zwrócić uwagę na koszty wejścia. Zaprojektowanie własnego ASIC-a to wydatek rzędu setek milionów dolarów jeszcze przed wyprodukowaniem pierwszego egzemplarza. Do tego dochodzą koszty utrzymania ekosystemu oprogramowania, który musi nadążać za ewolucją modeli. Dla zdecydowanej większości graczy rynkowych rachunek ekonomiczny po prostu nie wychodzi.

Rynek głosuje portfelem

Rynek potwierdza tę diagnozę liczbami. NVIDIA zamknęła ostatni kwartał fiskalny z przychodami 60,9 mld dolarów, z czego segment Data Center wygenerował 30,8 mld. AMD zwiększyło przychody z chipów dla centrów danych o 69% rok do roku. Zagrożenie ze strony ASIC-ów? Na razie wygląda bardziej jak szum niż realny problem.

Popyt na GPU wyprzedza podaż od kilku kwartałów. Kolejki na dostawy układów H100 i H200 liczone były w miesiącach. W tym samym czasie producenci ASIC-ów walczą o pozyskanie pierwszych klientów gotowych zaryzykować migrację infrastruktury. Dysproporcja między tymi dwiema rzeczywistościami mówi więcej niż jakikolwiek raport analityczny.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.