Gimlet Labs zebrał 80 mln dolarów. Rozwiązanie problemu AI jest proste
Źródło: Link
Źródło: Link
Szkolenia, warsztaty i wdrożenia AI. Dopasowane do Twojego zespołu.
Gimlet Labs właśnie zebrał 80 milionów dolarów w rundzie A. Kwota imponująca, ale jeszcze ciekawsze jest to, na co te pieniądze pójdą. Startup rozwiązał problem, który kosztuje firmy miliardy: jak uruchamiać modele AI na różnych procesorach bez przepisywania kodu za każdym razem.
Dzisiaj, jeśli chcesz uruchomić model AI na chipie NVIDIA, a potem przenieść go na AMD lub Intel, musisz dostosować kod. To kosztuje czas, pieniądze i blokuje Cię u jednego dostawcy. Gimlet Labs kończy z tym.
Technologia Gimlet Labs działa jak tłumacz między modelem AI a sprzętem. Piszesz kod raz, a platforma automatycznie optymalizuje go pod NVIDIA, AMD, Intel, ARM, Cerebras i d-Matrix. Jednocześnie.
Zain Asgar, CEO Gimlet Labs, wyjaśnia to prosto: "Firmy tracą miliony na vendor lock-in. Kupują drogie GPU NVIDIA, bo nie mają wyboru. My dajemy im wybór."
Platforma nie wymaga od programistów nauki nowych narzędzi. Wspiera popularne frameworki jak PyTorch, TensorFlow i JAX. Dodajesz jedną linię kodu, resztę robi system.
Gimlet Labs używa techniki zwanej "hardware abstraction layer" (warstwa abstrakcji sprzętowej). Mechanizm jest prosty: platforma analizuje model AI, sprawdza dostępne procesory i automatycznie dzieli zadania między nimi.
Przykład: masz klaster z chipami NVIDIA A100 i AMD MI300. Gimlet Labs rozpoznaje, że NVIDIA lepiej radzi sobie z określonymi operacjami macierzowymi, a AMD z innymi. Dzieli pracę tak, żeby wykorzystać mocne strony każdego procesora.
Rezultat? Firma Anthropic testowała platformę przy uruchamianiu swoich modeli Claude i zanotowała 40% spadek kosztów inferencji przy tej samej wydajności.
Rundę A poprowadził fundusz Andreessen Horowitz (a16z), z udziałem Index Ventures i Sequoia Capital. Ci sami inwestorzy, którzy wcześnie postawili na OpenAI i Anthropic.
Marc Andreessen, partner a16z, komentuje: "Gimlet Labs rozwiązuje problem, który będzie tylko rósł. Im więcej firm używa AI, tym bardziej potrzebują elastyczności w wyborze sprzętu."
Gimlet Labs ma już klientów komercyjnych. Microsoft Azure, Google Cloud i Oracle Cloud zintegrowały platformę ze swoimi usługami. Możesz wynająć serwery w chmurze i od razu używać Gimlet Labs bez dodatkowej konfiguracji.
Poza gigantami chmurowymi, Gimlet Labs współpracuje z kilkoma startupami AI, które wolą nie ujawniać nazw (NDA). Jedno z nich to firma budująca modele do analizy medycznej, która dzięki platformie obniżyła koszty inferencji z 12 do 7 dolarów za 1000 zapytań.
Inna firma, z sektora fintech, używa Gimlet Labs do uruchamiania modeli wykrywających oszustwa. Wcześniej polegała wyłącznie na NVIDIA. Teraz, w godzinach szczytu, dokupuje moc obliczeniową AMD i Intel przez platformę Gimlet – bez zmiany kodu.
Większość firm używających AI jest uzależniona od NVIDIA. Nie z wyboru, ale dlatego, że ekosystem narzędzi (CUDA, cuDNN, TensorRT) działa tylko na GPU tej firmy.
Problem? NVIDIA kontroluje ceny. Chip H100 kosztuje 30-40 tysięcy dolarów. Nowy B200 będzie droższy. Jeśli jesteś zamknięty w ekosystemie NVIDIA, nie masz negocjacyjnej siły.
Gimlet Labs to zmienia. Jeśli możesz uruchomić model na AMD MI300 (tańszym o 30%) lub Intel Gaudi 3, nagle masz wybór. A wybór to dźwignia cenowa.
Raport Goldman Sachs z lutego 2026 szacuje, że firmy wydają rocznie 12 miliardów dolarów więcej na infrastrukturę AI, niż musiałyby, gdyby miały elastyczność w wyborze sprzętu. Gimlet Labs celuje właśnie w ten rynek.
W Polsce coraz więcej firm testuje modele AI – od narzędzi programistycznych po systemy analityczne. Większość korzysta z chmury (AWS, Azure, Google Cloud), gdzie dominuje NVIDIA.
Gimlet Labs może obniżyć koszty nawet o 30-40%. Dla startupu wydającego 5000 złotych miesięcznie na inferencję to oszczędność 1500-2000 złotych. Dla większej firmy – dziesiątki tysięcy.
Platforma jest dostępna przez API i działa w chmurze. Nie musisz kupować własnych serwerów ani zatrudniać specjalistów od CUDA. Integrujesz się przez SDK (Python, JavaScript, Go) i od razu zyskujesz dostęp do różnych procesorów.
Gimlet Labs nie jest jedyną firmą atakującą vendor lock-in. Modular AI (CEO: Chris Lattner, twórca języka Swift) buduje podobne rozwiązanie. Różnica? Modular skupia się na nowym języku programowania (Mojo), a Gimlet Labs działa z istniejącymi narzędziami.
Są też projekty open source, jak Apache TVM i ONNX Runtime, które próbują unifikować sprzęt. Brakuje im jednak wsparcia komercyjnego i optymalizacji na poziomie Gimlet Labs.
Zain Asgar nie ukrywa, że konkurencja rośnie: "To dobrze. Znaczy, że rynek rozumie problem. My mamy 2-3 lata przewagi technicznej i już pracujemy z największymi graczami."
Gimlet Labs planuje potrójnie zwiększyć zespół inżynieryjny (z 45 do 150 osób) do końca 2026 roku. Priorytet: wsparcie dla nowych chipów (m.in. Google TPU v6 i przyszłe procesory od Qualcomm).
Część funduszy pójdzie na ekspansję w Europie i Azji. Firma otwiera biura w Londynie i Singapurze. W planach są też partnerstwa z dostawcami chmury w regionach, gdzie NVIDIA ma ograniczoną dostępność (np. Indie, Brazylia).
Ostatni element: edukacja. Gimlet Labs uruchamia program certyfikacji dla inżynierów AI, którzy chcą nauczyć się optymalizacji multi-chipowej. Kursy będą darmowe, ale wymagają rejestracji przez platformę.
Jeśli Gimlet Labs dotrzyma obietnic, za 12 miesięcy vendor lock-in w AI będzie mniej opłacalny. Firmy dostaną narzędzie, które pozwoli im negocjować ceny z dostawcami sprzętu.
To nie zabije NVIDIA – ich chipy wciąż są najwydajniejsze. Zmusi jednak firmę do bardziej konkurencyjnych cen. A AMD, Intel i inni dostaną szansę na większy kawałek tortu.
Dla Ciebie, jeśli prowadzisz firmę używającą AI, to konkretna opcja do sprawdzenia. Gimlet Labs oferuje darmowy trial na 30 dni. Możesz przetestować, czy platforma rzeczywiście obniża koszty, zanim podpiszesz kontrakt.
Pytanie tylko, czy Gimlet Labs utrzyma przewagę, gdy Google, Amazon i Microsoft zbudują własne rozwiązania. Historia pokazuje, że giganty w końcu kopiują dobre pomysły. Jeśli jednak Gimlet Labs wykorzysta te 2-3 lata przewagi, może stać się standardem – jak Kubernetes w konteneryzacji.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar