Biznes
Biznes · 5 min czytania · 11 listopada 2025

Majestic Labs z 100 mln dolarów na serwery AI nowej generacji

Grafika ilustrująca: Majestic Labs z 100 mln dolarów na serwery AI nowej generacji

Źródło: Link

AI dla Twojej firmy

Szkolenia, warsztaty i wdrożenia AI. Dopasowane do Twojego zespołu.

Sprawdź ofertę →

Startup Majestic Labs właśnie wyszedł z trybu stealth z rundą finansowania wartą 100 milionów dolarów. Jego cel? Serwery AI, które mają rozwiązać jeden z największych problemów branży – niewystarczającą pamięć operacyjną dla coraz bardziej wymagających modeli.

Firma chwali się opatentowaną architekturą, która ma oferować tysiąckrotnie większą pojemność pamięci niż konwencjonalne serwery enterprise. To śmiała deklaracja. Trenowanie i uruchamianie dużych modeli językowych to dziś kosztowna operacja, gdzie pamięć często stanowi wąskie gardło.

Tysiąckrotnie więcej pamięci – jak to wygląda w liczbach

Tradycyjne serwery enterprise dysponują zazwyczaj pamięcią RAM rzędu kilkuset gigabajtów do kilku terabajtów. Jeśli Majestic Labs faktycznie oferuje tysiąckrotny wzrost, mówimy o petabajtach pamięci dostępnej w pojedynczym systemie.

Może. Rosnące rozmiary modeli AI (niektóre liczą już setki miliardów parametrów) sprawiają jednak, że taka skala może wkrótce stać się koniecznością, nie luksusem.

Warto uświadomić sobie, dlaczego pamięć jest tak krytycznym zasobem. Podczas trenowania dużego modelu językowego cały zestaw wag, gradienty i dane pośrednie muszą być dostępne możliwie jak najbliżej jednostek obliczeniowych. Gdy zabraknie miejsca w pamięci podręcznej, system zaczyna korzystać z wolniejszego magazynu – i to właśnie tam najczęściej gubi się wydajność. Duże klastry GPU od Nvidii, takie jak systemy oparte na H100, wymagają skomplikowanej choreografii między wieloma węzłami obliczeniowymi, by poradzić sobie z modelami liczącymi ponad 70 miliardów parametrów. Architektura, która eliminuje ten taniec między węzłami poprzez masowe powiększenie dostępnej pamięci lokalnej, mogłaby fundamentalnie zmienić sposób trenowania i wnioskowania modeli.

Szczegóły techniczne architektury pozostają na razie tajemnicą – patent jest w trakcie rozpatrywania. Sama deklaracja wskazuje na radykalne odejście od klasycznych rozwiązań serwerowych. Prawdopodobnie chodzi o kombinację nowych technologii pamięci, rozproszonych systemów i optymalizacji pod kątem obliczeń AI.

Sto milionów dolarów na start – kto za tym stoi

Kwota 100 milionów dolarów w rundzie seed lub serii A to rzadkość, nawet w branży AI. Szczegóły dotyczące inwestorów nie zostały ujawnione. Sam fakt takiego finansowania na starcie sugeruje jednak, że za projektem stoją doświadczeni gracze z branży technologicznej lub infrastruktury chmurowej.

Dla porównania: większość startupów sprzętowych zaczyna od rund rzędu 10–30 milionów dolarów, które pozwalają zbudować prototyp i przyciągnąć pierwszych klientów. Sto milionów to sygnał, że Majestic Labs albo dysponuje już zaawansowanym produktem, albo przekonało inwestorów do wyjątkowo obiecującej wizji technicznej. W branży sprzętowej, gdzie cykle produkcyjne są długie i kapitałochłonne, taka poduszka finansowa jest niezbędna, by przetrwać etap komercjalizacji.

Majestic Labs dołącza do rosnącej grupy startupów, które próbują zakwestionować dominację Nvidii i tradycyjnych producentów sprzętu serwerowego. Różnica? Większość konkurentów skupia się na chipach AI – Majestic Labs stawia na całościową architekturę serwerową.

To istotna różnica strategiczna. Projektowanie nowego chipa to przedsięwzięcie trwające latami i pochłaniające miliardy dolarów – wystarczy spojrzeć na trudności, z jakimi borykają się Cerebras, Graphcore czy SambaNova. Podejście na poziomie architektury serwerowej pozwala potencjalnie szybciej dotrzeć do rynku, łącząc istniejące komponenty pamięci i obliczeniowe w nowatorski sposób, zamiast projektować krzem od zera.

Infrastruktura AI jako nowe pole walki konkurencyjnej

Wyścig o dominację w infrastrukturze AI nabiera tempa. Hiperscalerzy – Amazon, Microsoft, Google – inwestują dziesiątki miliardów dolarów rocznie w centra danych i sprzęt obliczeniowy. Jednocześnie coraz więcej przedsiębiorstw poszukuje alternatyw dla drogich usług chmurowych i chce budować własną infrastrukturę on-premise lub w modelach prywatnej chmury.

Właśnie w tej szczelinie widzą szansę startupy takie jak Majestic Labs. Firma, która zaoferuje radykalnie wydajniejszy serwer AI w rozsądnej cenie, może przyciągnąć zarówno duże laboratoria badawcze, jak i korporacje wdrażające modele wewnętrznie. Zastosowania praktyczne są tu bardzo konkretne:

  • Trenowanie modeli fundamentalnych – laboratoria AI mogłyby trenować większe modele na mniejszej liczbie węzłów, redukując koszty i czas obliczeń.
  • Wnioskowanie w czasie rzeczywistym – firmy obsługujące miliony zapytań dziennie potrzebują sprzętu, który zmieści duże modele w pamięci i odpowiada z minimalnym opóźnieniem.
  • Badania naukowe – instytucje akademickie i rządowe, które nie mogą pozwolić sobie na ogromne klastry GPU, zyskałyby dostęp do większej mocy obliczeniowej w kompaktowej formie.

Czy rynek jest gotowy na takie rozwiązanie

Firmy trenujące duże Modele AI – od OpenAI po Google – wydają miliardy dolarów rocznie na infrastrukturę. Każda optymalizacja, która pozwala zmniejszyć liczbę serwerów lub przyspieszyć obliczenia, przekłada się na konkretne oszczędności.

Problem w tym, że przejście na nową architekturę wymaga czasu, testów i często przepisania części oprogramowania. Majestic Labs będzie musiał udowodnić, że jego rozwiązanie nie tylko działa na papierze, ale także integruje się z istniejącymi frameworkami AI i oferuje realną przewagę kosztową.

Ekosystem oprogramowania to często niedoceniany element układanki. Frameworki takie jak PyTorch czy TensorFlow, biblioteki do rozproszonego trenowania jak DeepSpeed czy Megatron, a także narzędzia do orkiestracji klastrów – wszystkie zostały zoptymalizowane pod kątem istniejącego sprzętu. Nowa architektura serwerowa, nawet jeśli jest technicznie lepsza, musi zdobyć zaufanie inżynierów MLOps i udowodnić swoją wartość w rzeczywistych workloadach, zanim większe organizacje zdecydują się na migrację.

Jeśli im się to uda (a sto milionów dolarów daje spory zapas czasu), możemy być świadkami istotnej zmiany w sposobie budowania infrastruktury AI.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.