Modele AI
Modele AI · 6 min czytania · 13 lutego 2026

OpenAI testuje model na chipach Cerebras. Może zmienić rynek

OpenAI testuje model na chipach Cerebras. To może zmienić rynek AI

Źródło: Link

Darmowy webinar — AI od zera

90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.

Zapisz się →

Powiązane tematy

OpenAI właśnie zrobił coś, czego nikt się nie spodziewał. Zamiast kolejnego modelu na standardowych chipach Nvidia, firma wypuściła model kodujący na platformie Cerebras – startupie, który robi procesory wielkości talerza obiadowego. I nie chodzi tu o symboliczny gest. To pierwszy krok w kierunku, który może całkowicie przebudować rynek sztucznej inteligencji.

Model nazywa się o1-mini-2026-02-11 i jest dostępny wyłącznie przez API Cerebras. Zaraz rozłożę to na czynniki pierwsze.

Dlaczego OpenAI rezygnuje z Nvidii

Przez ostatnie lata Nvidia była królem rynku AI. Ich chipy GPU (Graphics Processing Unit – te same, które kiedyś służyły głównie do gier) stały się standardem do trenowania i uruchamiania modeli językowych. Problem? Nvidia ma praktyczny monopol. Ceny rosną, dostępność spada, a kolejki po najnowsze układy H100 ciągną się miesiącami.

Cerebras robi coś zupełnie innego. Zamiast małych chipów połączonych w klastry, tworzą jeden gigantyczny procesor – Wafer Scale Engine 3 (WSE-3). Ma 900 tysięcy rdzeni i 44 gigabajty pamięci podręcznej na samym chipie. Dla porównania: standardowy chip Nvidia ma kilkadziesiąt tysięcy rdzeni. To jak porównywać rower z ciężarówką.

Efekt? Model o1-mini na platformie Cerebras generuje kod z prędkością 2200 tokenów na sekundę. Token to mniej więcej 3/4 słowa. Dla człowieka nietechnicznego: to jakby AI pisało kompletny program w kilka sekund, podczas gdy na tradycyjnym sprzęcie zajęłoby to minuty.

OpenAI testował już wcześniej różne platformy – w zeszłym roku współpracowali z Groq, innym producentem specjalizowanych chipów AI. Ale Cerebras to inna liga. To nie eksperyment. To sygnał, że OpenAI poważnie myśli o uniezależnieniu się od Nvidii.

Co to oznacza dla zwykłego użytkownika

Może się wydawać, że to sprawa dla inżynierów i dyrektorów IT. Ale konsekwencje sięgają znacznie dalej. potrzebujesz AI do analizy dużego zbioru danych – powiedzmy, raporty finansowe z ostatnich pięciu lat. Na tradycyjnym sprzęcie taka operacja może zająć godziny. Na platformie Cerebras? Minuty.

Dla programistów to jeszcze większa zmiana. Narzędzia takie jak GitHub Copilot czy Cursor już teraz pomagają pisać kod. Ale szybkość ma znaczenie. Im szybciej model odpowiada, tym płynniej pracujesz. 2200 tokenów na sekundę to różnica między płynną rozmową a czekaniem na każdą odpowiedź.

Jest jeszcze jeden aspekt – cena. Cerebras twierdzi, że ich platforma jest tańsza w eksploatacji niż klastry GPU. Jeśli to prawda, aplikacje AI mogą stać się dostępne dla mniejszych firm. Dziś trenowanie dużego modelu kosztuje miliony dolarów. Jeśli koszty spadną, zobaczymy eksplozję nowych zastosowań – od personalizowanych asystentów po specjalistyczne narzędzia dla niszowych branż.

Chipy wielkości talerza – jak to działa

Cerebras podchodzi do problemu inaczej niż wszyscy inni. Tradycyjne chipy są małe – kilka centymetrów kwadratowych. Dlaczego? Bo większe są trudniejsze do wyprodukowania. Im większa powierzchnia krzemu, tym większe ryzyko defektu podczas produkcji.

Cerebras ignoruje tę zasadę. Ich WSE-3 ma 21 centymetrów średnicy – zajmuje cały wafer krzemowy, z którego normalnie wycinałoby się dziesiątki mniejszych chipów. To wymaga zupełnie nowej technologii produkcji. Musieli rozwiązać problem chłodzenia (taki chip generuje ogromne ciepło), redundancji (jeśli jeden rdzeń się zepsuje, reszta musi działać dalej) i komunikacji między częściami układu.

Ale korzyści są ogromne. Wszystkie rdzenie są blisko siebie, połączone bezpośrednio na chipie. W klastrze GPU dane muszą podróżować między oddzielnymi układami przez kable i switche. To jak różnica między rozmową w jednym pokoju a telekonferencją przez satelitę – opóźnienia się sumują.

WSE-3 ma też 44 GB pamięci SRAM bezpośrednio na chipie. To najszybszy rodzaj pamięci, tysiące razy szybszy niż standardowa RAM. Model może trzymać wszystkie kluczowe dane tuż obok rdzeni obliczeniowych. Wynik? Błyskawiczne przetwarzanie bez wąskich gardeł.

Konkurencja budzi się do życia

OpenAI nie jest jedynym graczem, który szuka alternatyw. W tym samym tygodniu chiński startup MiniMax ogłosił model MoE-01, który konkuruje z najlepszymi modelami OpenAI i Anthropic – ale kosztuje ułamek ceny. 10 centów za milion tokenów wejściowych to dziesięciokrotnie taniej niż Claude Sonnet 4.6 od Anthropic.

MoE oznacza Mixture of Experts – architekturę, w której model składa się z wielu mniejszych "ekspertów", a system wybiera, którego użyć dla danego zadania. Efekt? Lepsze wyniki przy niższych kosztach obliczeniowych.

Japońskie firmy też nie śpią. Softbank, KDDI i inne giganty telekomunikacyjne inwestują w lokalne modele AI. Powód? Bezpieczeństwo danych i niezależność od amerykańskich dostawców. Europa idzie tą samą drogą – Mistral AI we Francji, Aleph Alpha w Niemczech.

Rynek przestaje być monopolem kilku wielkich graczy. To świetna wiadomość dla użytkowników końcowych. Konkurencja oznacza niższe ceny, lepszą jakość i więcej opcji do wyboru.

Co dalej z infrastrukturą AI

Decyzja OpenAI to sygnał dla całej branży. Nvidia nadal dominuje, ale ich pozycja nie jest już tak pewna. Inne firmy widzą szansę. AMD rozwija swoje chipy Instinct. Google ma własne TPU (Tensor Processing Units). Amazon projektuje chipy Trainium i Inferentia. Microsoft inwestuje w Maia.

Cerebras ma jeszcze jedną przewagę – specjalizację. Ich chipy są zaprojektowane wyłącznie do AI. Nvidia musi balansować między grami, grafiką profesjonalną, centrami danych i AI.

Pojawia się też nowy trend – modele dedykowane. Zamiast jednego wielkiego modelu do wszystkiego, firmy tworzą specjalistyczne wersje. Model do kodu, model do analizy danych, model do obsługi klienta. Każdy zoptymalizowany pod konkretne zadanie. To wymaga elastycznej infrastruktury, która potrafi szybko przełączać się między różnymi obciążeniami. Cerebras świetnie się do tego nadaje.

Ryzyko i niewiadome

Nie wszystko jest jednak idealne. Cerebras to wciąż młoda firma. Ich technologia jest imponująca, ale produkcja na dużą skalę to wyzwanie. Nvidia ma lata doświadczenia, globalną sieć dostaw i armię inżynierów. Cerebras musi udowodnić, że potrafi skalować produkcję i utrzymać niezawodność.

Jest też kwestia ekosystemu. Większość narzędzi AI jest zoptymalizowana pod CUDA – platformę programistyczną Nvidii. Przejście na Cerebras oznacza przepisanie części kodu, przeszkolenie zespołów, zmianę procesów. To kosztuje czas i pieniądze. Nie każda firma będzie chciała to robić, zwłaszcza jeśli obecne rozwiązania działają wystarczająco dobrze.

Wreszcie – geopolityka. Chipy to strategiczny zasób. Rządy inwestują miliardy w lokalne fabryki półprzewodników. Handel chipami AI jest coraz bardziej regulowany. Cerebras, jak każda amerykańska firma, podlega ograniczeniom eksportowym. To może ograniczyć ich rynek, zwłaszcza w Chinach.

Dlaczego to ma znaczenie teraz

Model o1-mini na Cerebras to nie tylko technologiczny pokaz siły. To test rynku. OpenAI sprawdza, czy klienci są gotowi na alternatywę wobec Nvidii. Jeśli test się powiedzie, możemy zobaczyć więcej modeli na tej platformie. A jeśli więcej firm pójdzie tą drogą, Nvidia będzie musiała reagować – obniżyć ceny, poprawić dostępność, przyspieszyć innowacje.

Dla branży AI to moment przełomowy. Przez lata wszyscy zakładali, że GPU Nvidii to jedyna droga. Teraz widzimy, że są alternatywy. I działają. To otwiera drzwi dla nowych pomysłów, nowych architektur, nowych sposobów myślenia o infrastrukturze AI.

Dla użytkowników końcowych konsekwencje będą widoczne stopniowo. Szybsze aplikacje. Niższe ceny. Nowe funkcje, które dziś są nieopłacalne, staną się standardem. AI przestanie być luksusem dla wielkich korporacji. Stanie się narzędziem dostępnym dla małych firm, startupów, nawet indywidualnych twórców.

OpenAI postawił pierwszy krok. Teraz zobaczymy, kto pójdzie za nimi. I jak szybko rynek się zmieni.

Źródła

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.