Biznes
Biznes · 4 min czytania · 23 stycznia 2026

Startup za 800 mln dolarów. Właśnie zgarnął 150 mln na start

Startup za 800 mln dolarów. Właśnie zgarnął 150 mln na start

Źródło: Link

AI dla Twojej firmy

Szkolenia, warsztaty i wdrożenia AI. Dopasowane do Twojego zespołu.

Sprawdź ofertę →

Powiązane tematy

Startup, który oficjalnie jeszcze nie istniał, właśnie zebrał 150 milionów dolarów. Wycena? 800 milionów. To przypomina scenariusz z czasów bańki dotcomów? To rzeczywistość stycznia 2026 roku.

Inferact – bo o nim mowa – nie ma jeszcze produktu komercyjnego. Ma za to vLLM: projekt open source, który zmienia sposób, w jaki AI przetwarza zapytania. I inwestorzy postawili na to fortunę.

vLLM – czyli dlaczego ktoś płaci krocie za coś darmowego

VLLM to silnik inferencyjny.

Kiedy rozmawiasz z ChatGPT, gdzieś w chmurze musi pracować serwer, który przetwarza Twoje pytanie i generuje odpowiedź. To właśnie inference – moment, gdy model AI "myśli" i produkuje tekst.

Problem: to cholernie drogie. Każde zapytanie zjada moc obliczeniową, a im więcej użytkowników, tym wyższe rachunki. Firmy płacą miliony za serwery GPU (procesory graficzne, które obsługują AI).

VLLM robi to szybciej i taniej. Optymalizuje sposób, w jaki model wykorzystuje pamięć i moc obliczeniową. Dla firm takich jak Anthropic, Perplexity czy Snowflake – wszyscy korzystają z vLLM – to różnica między zyskiem a spalaniem gotówki.

Kto dał 150 milionów na coś darmowego?

VLLM to projekt open source. Każdy może go pobrać. Za darmo. Więc o co chodzi?

Inferact sprzedaje nie sam kod, ale warstwę usług wokół niego. Wsparcie techniczne. Optymalizację pod konkretne potrzeby. Gwarancję, że wszystko działa stabilnie, gdy obsługujesz miliony zapytań dziennie.

To model, który sprawdził się już wcześniej. Red Hat zarabiał miliardy na Linuxie – też open source. Databricks zbudował imperium na Apache Spark. Inferact idzie tą samą drogą. Tylko że w świecie, gdzie AI rośnie szybciej niż cokolwiek wcześniej.

Rundę seed poprowadził Lightspeed Venture Partners. Dołączyli Andreessen Horowitz, Felicis i Index Ventures. Same wielkie nazwiska. I wszyscy postawili na zespół, który stworzył technologię używaną już przez pół branży AI.

Wycena 800 milionów brzmi absurdalnie – ale ma sens

Normalnie startup w rundzie seed wart jest kilkadziesiąt milionów. Czasem sto. Inferact? Ośmiokrotnie więcej.

Powód pierwszy: vLLM to nie eksperyment. To technologia, która już działa w produkcji u gigantów. Anthropic – twórcy Claude – używa jej do obsługi milionów użytkowników. Snowflake do analizy danych. Perplexity do wyszukiwarki AI.

Powód drugi: rynek inference eksploduje. Według prognoz do 2028 roku firmy wydadzą na to dziesiątki miliardów dolarów. Kto kontroluje infrastrukturę, kontroluje przepływ gotówki.

Powód trzeci: zespół. Założyciele Inferact to ludzie, którzy stworzyli vLLM na Uniwersytecie Kalifornijskim w Berkeley. Nie są nowicjuszami – to naukowcy i inżynierowie z dorobkiem.

Inwestorzy nie kupują pomysłu. Kupują przewagę technologiczną, która już istnieje.

Co to oznacza dla Ciebie?

Może się wydawać, że to odległa historia o wielkich pieniądzach i korporacjach. Ale ma bezpośredni wpływ na to, czego używasz codziennie.

Szybsze AI oznacza, że ChatGPT, Claude czy Perplexity będą działać płynniej. Tańsze przetwarzanie to niższe ceny abonamentów – albo więcej funkcji za te same pieniądze. Stabilniejsza infrastruktura to mniej błędów i przestojów.

Dla firm: jeśli budujesz produkt oparty na AI, technologie takie jak vLLM decydują, czy Twój biznes będzie rentowny. Różnica w kosztach inference może wynosić 50-70%. To przepaść między sukcesem a bankructwem.

Dla branży: Inferact to sygnał, że open source w AI nie tylko przetrwa, ale stanie się fundamentem komercyjnych gigantów. Model "darmowa technologia + płatne usługi" właśnie udowodnił, że działa na skalę setek milionów.

Bańka czy przyszłość?

Wycena 800 milionów przed wypuszczeniem produktu przypomina szaleństwo. I może nią być – historia technologii pełna jest startupów, które spaliły miliardy, nie dostarczając nic wartościowego.

Różnica: vLLM już działa. Nie jest prototypem. To rdzeń infrastruktury AI największych graczy na rynku.

Inferact nie musi przekonywać świata, że jego technologia ma sens. Musi tylko zamienić adopcję na przychody. A to – w świecie, gdzie każda firma chce AI – nie jest science fiction.

Pytanie brzmi: czy zdążą, zanim ktoś inny – Google? Microsoft? Amazon? – zbuduje własne rozwiązanie i odda je za darmo, żeby zdominować rynek?

Odpowiedź poznamy w ciągu roku, dwóch. Ale jedno jest pewne: bitwa o infrastrukturę AI właśnie się zaczęła. I stawka to nie miliony. To miliardy.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.