Startup za 800 mln dolarów. Właśnie zgarnął 150 mln na start
Źródło: Link
Źródło: Link
Szkolenia, warsztaty i wdrożenia AI. Dopasowane do Twojego zespołu.
Startup, który oficjalnie jeszcze nie istniał, właśnie zebrał 150 milionów dolarów. Wycena? 800 milionów. To przypomina scenariusz z czasów bańki dotcomów? To rzeczywistość stycznia 2026 roku.
Inferact – bo o nim mowa – nie ma jeszcze produktu komercyjnego. Ma za to vLLM: projekt open source, który zmienia sposób, w jaki AI przetwarza zapytania. I inwestorzy postawili na to fortunę.
VLLM to silnik inferencyjny.
Kiedy rozmawiasz z ChatGPT, gdzieś w chmurze musi pracować serwer, który przetwarza Twoje pytanie i generuje odpowiedź. To właśnie inference – moment, gdy model AI "myśli" i produkuje tekst.
Problem: to cholernie drogie. Każde zapytanie zjada moc obliczeniową, a im więcej użytkowników, tym wyższe rachunki. Firmy płacą miliony za serwery GPU (procesory graficzne, które obsługują AI).
VLLM robi to szybciej i taniej. Optymalizuje sposób, w jaki model wykorzystuje pamięć i moc obliczeniową. Dla firm takich jak Anthropic, Perplexity czy Snowflake – wszyscy korzystają z vLLM – to różnica między zyskiem a spalaniem gotówki.
VLLM to projekt open source. Każdy może go pobrać. Za darmo. Więc o co chodzi?
Inferact sprzedaje nie sam kod, ale warstwę usług wokół niego. Wsparcie techniczne. Optymalizację pod konkretne potrzeby. Gwarancję, że wszystko działa stabilnie, gdy obsługujesz miliony zapytań dziennie.
To model, który sprawdził się już wcześniej. Red Hat zarabiał miliardy na Linuxie – też open source. Databricks zbudował imperium na Apache Spark. Inferact idzie tą samą drogą. Tylko że w świecie, gdzie AI rośnie szybciej niż cokolwiek wcześniej.
Rundę seed poprowadził Lightspeed Venture Partners. Dołączyli Andreessen Horowitz, Felicis i Index Ventures. Same wielkie nazwiska. I wszyscy postawili na zespół, który stworzył technologię używaną już przez pół branży AI.
Normalnie startup w rundzie seed wart jest kilkadziesiąt milionów. Czasem sto. Inferact? Ośmiokrotnie więcej.
Powód pierwszy: vLLM to nie eksperyment. To technologia, która już działa w produkcji u gigantów. Anthropic – twórcy Claude – używa jej do obsługi milionów użytkowników. Snowflake do analizy danych. Perplexity do wyszukiwarki AI.
Powód drugi: rynek inference eksploduje. Według prognoz do 2028 roku firmy wydadzą na to dziesiątki miliardów dolarów. Kto kontroluje infrastrukturę, kontroluje przepływ gotówki.
Powód trzeci: zespół. Założyciele Inferact to ludzie, którzy stworzyli vLLM na Uniwersytecie Kalifornijskim w Berkeley. Nie są nowicjuszami – to naukowcy i inżynierowie z dorobkiem.
Inwestorzy nie kupują pomysłu. Kupują przewagę technologiczną, która już istnieje.
Może się wydawać, że to odległa historia o wielkich pieniądzach i korporacjach. Ale ma bezpośredni wpływ na to, czego używasz codziennie.
Szybsze AI oznacza, że ChatGPT, Claude czy Perplexity będą działać płynniej. Tańsze przetwarzanie to niższe ceny abonamentów – albo więcej funkcji za te same pieniądze. Stabilniejsza infrastruktura to mniej błędów i przestojów.
Dla firm: jeśli budujesz produkt oparty na AI, technologie takie jak vLLM decydują, czy Twój biznes będzie rentowny. Różnica w kosztach inference może wynosić 50-70%. To przepaść między sukcesem a bankructwem.
Dla branży: Inferact to sygnał, że open source w AI nie tylko przetrwa, ale stanie się fundamentem komercyjnych gigantów. Model "darmowa technologia + płatne usługi" właśnie udowodnił, że działa na skalę setek milionów.
Wycena 800 milionów przed wypuszczeniem produktu przypomina szaleństwo. I może nią być – historia technologii pełna jest startupów, które spaliły miliardy, nie dostarczając nic wartościowego.
Różnica: vLLM już działa. Nie jest prototypem. To rdzeń infrastruktury AI największych graczy na rynku.
Inferact nie musi przekonywać świata, że jego technologia ma sens. Musi tylko zamienić adopcję na przychody. A to – w świecie, gdzie każda firma chce AI – nie jest science fiction.
Pytanie brzmi: czy zdążą, zanim ktoś inny – Google? Microsoft? Amazon? – zbuduje własne rozwiązanie i odda je za darmo, żeby zdominować rynek?
Odpowiedź poznamy w ciągu roku, dwóch. Ale jedno jest pewne: bitwa o infrastrukturę AI właśnie się zaczęła. I stawka to nie miliony. To miliardy.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar