Biznes
Biznes · 6 min czytania · 23 marca 2026

Gimlet Labs zebrał 80 mln dolarów. Rozwiązanie problemu AI jest proste

Gimlet Labs zebrał 80 mln dolarów. Rozwiązanie problemu AI jest proste

Źródło: Link

AI dla Twojej firmy

Szkolenia, warsztaty i wdrożenia AI. Dopasowane do Twojego zespołu.

Sprawdź ofertę →

Powiązane tematy

W skrócie:
  • Gimlet Labs zebrał 80 mln USD w rundzie A na technologię unifikującą różne procesory AI
  • Platforma pozwala uruchamiać modele jednocześnie na chipach NVIDIA, AMD, Intel, ARM, Cerebras i d-Matrix
  • Rozwiązanie eliminuje vendor lock-in i obniża koszty inferencji nawet o 40%
  • Firma współpracuje już z Microsoft Azure, Google Cloud i Oracle Cloud

Gimlet Labs właśnie zebrał 80 milionów dolarów w rundzie A. Kwota imponująca, ale jeszcze ciekawsze jest to, na co te pieniądze pójdą. Startup rozwiązał problem, który kosztuje firmy miliardy: jak uruchamiać modele AI na różnych procesorach bez przepisywania kodu za każdym razem.

Dzisiaj, jeśli chcesz uruchomić model AI na chipie NVIDIA, a potem przenieść go na AMD lub Intel, musisz dostosować kod. To kosztuje czas, pieniądze i blokuje Cię u jednego dostawcy. Gimlet Labs kończy z tym.

Jedna platforma, sześć typów procesorów

Technologia Gimlet Labs działa jak tłumacz między modelem AI a sprzętem. Piszesz kod raz, a platforma automatycznie optymalizuje go pod NVIDIA, AMD, Intel, ARM, Cerebras i d-Matrix. Jednocześnie.

Zain Asgar, CEO Gimlet Labs, wyjaśnia to prosto: "Firmy tracą miliony na vendor lock-in. Kupują drogie GPU NVIDIA, bo nie mają wyboru. My dajemy im wybór."

Gimlet Labs unifikuje różne procesory AI w jedną platformę

Platforma nie wymaga od programistów nauki nowych narzędzi. Wspiera popularne frameworki jak PyTorch, TensorFlow i JAX. Dodajesz jedną linię kodu, resztę robi system.

Jak to działa w praktyce

Gimlet Labs używa techniki zwanej "hardware abstraction layer" (warstwa abstrakcji sprzętowej). Mechanizm jest prosty: platforma analizuje model AI, sprawdza dostępne procesory i automatycznie dzieli zadania między nimi.

Przykład: masz klaster z chipami NVIDIA A100 i AMD MI300. Gimlet Labs rozpoznaje, że NVIDIA lepiej radzi sobie z określonymi operacjami macierzowymi, a AMD z innymi. Dzieli pracę tak, żeby wykorzystać mocne strony każdego procesora.

Rezultat? Firma Anthropic testowała platformę przy uruchamianiu swoich modeli Claude i zanotowała 40% spadek kosztów inferencji przy tej samej wydajności.

80 milionów dolarów i partnerzy z pierwszej ligi

Rundę A poprowadził fundusz Andreessen Horowitz (a16z), z udziałem Index Ventures i Sequoia Capital. Ci sami inwestorzy, którzy wcześnie postawili na OpenAI i Anthropic.

Marc Andreessen, partner a16z, komentuje: "Gimlet Labs rozwiązuje problem, który będzie tylko rósł. Im więcej firm używa AI, tym bardziej potrzebują elastyczności w wyborze sprzętu."

Runda A w wysokości 80 mln USD to jeden z większych tegorocznych deali w sektorze infrastruktury AI

Gimlet Labs ma już klientów komercyjnych. Microsoft Azure, Google Cloud i Oracle Cloud zintegrowały platformę ze swoimi usługami. Możesz wynająć serwery w chmurze i od razu używać Gimlet Labs bez dodatkowej konfiguracji.

Kto jeszcze korzysta z platformy

Poza gigantami chmurowymi, Gimlet Labs współpracuje z kilkoma startupami AI, które wolą nie ujawniać nazw (NDA). Jedno z nich to firma budująca modele do analizy medycznej, która dzięki platformie obniżyła koszty inferencji z 12 do 7 dolarów za 1000 zapytań.

Inna firma, z sektora fintech, używa Gimlet Labs do uruchamiania modeli wykrywających oszustwa. Wcześniej polegała wyłącznie na NVIDIA. Teraz, w godzinach szczytu, dokupuje moc obliczeniową AMD i Intel przez platformę Gimlet – bez zmiany kodu.

Vendor lock-in kosztuje więcej niż myślisz

Większość firm używających AI jest uzależniona od NVIDIA. Nie z wyboru, ale dlatego, że ekosystem narzędzi (CUDA, cuDNN, TensorRT) działa tylko na GPU tej firmy.

Problem? NVIDIA kontroluje ceny. Chip H100 kosztuje 30-40 tysięcy dolarów. Nowy B200 będzie droższy. Jeśli jesteś zamknięty w ekosystemie NVIDIA, nie masz negocjacyjnej siły.

Gimlet Labs to zmienia. Jeśli możesz uruchomić model na AMD MI300 (tańszym o 30%) lub Intel Gaudi 3, nagle masz wybór. A wybór to dźwignia cenowa.

Platforma Gimlet Labs pozwala wybierać między sześcioma typami procesorów bez zmiany kodu

Raport Goldman Sachs z lutego 2026 szacuje, że firmy wydają rocznie 12 miliardów dolarów więcej na infrastrukturę AI, niż musiałyby, gdyby miały elastyczność w wyborze sprzętu. Gimlet Labs celuje właśnie w ten rynek.

Co to znaczy dla polskich firm

W Polsce coraz więcej firm testuje modele AI – od narzędzi programistycznych po systemy analityczne. Większość korzysta z chmury (AWS, Azure, Google Cloud), gdzie dominuje NVIDIA.

Gimlet Labs może obniżyć koszty nawet o 30-40%. Dla startupu wydającego 5000 złotych miesięcznie na inferencję to oszczędność 1500-2000 złotych. Dla większej firmy – dziesiątki tysięcy.

Platforma jest dostępna przez API i działa w chmurze. Nie musisz kupować własnych serwerów ani zatrudniać specjalistów od CUDA. Integrujesz się przez SDK (Python, JavaScript, Go) i od razu zyskujesz dostęp do różnych procesorów.

Konkurencja nie śpi

Gimlet Labs nie jest jedyną firmą atakującą vendor lock-in. Modular AI (CEO: Chris Lattner, twórca języka Swift) buduje podobne rozwiązanie. Różnica? Modular skupia się na nowym języku programowania (Mojo), a Gimlet Labs działa z istniejącymi narzędziami.

Są też projekty open source, jak Apache TVM i ONNX Runtime, które próbują unifikować sprzęt. Brakuje im jednak wsparcia komercyjnego i optymalizacji na poziomie Gimlet Labs.

Zain Asgar nie ukrywa, że konkurencja rośnie: "To dobrze. Znaczy, że rynek rozumie problem. My mamy 2-3 lata przewagi technicznej i już pracujemy z największymi graczami."

Na co pójdą 80 milionów

Gimlet Labs planuje potrójnie zwiększyć zespół inżynieryjny (z 45 do 150 osób) do końca 2026 roku. Priorytet: wsparcie dla nowych chipów (m.in. Google TPU v6 i przyszłe procesory od Qualcomm).

Część funduszy pójdzie na ekspansję w Europie i Azji. Firma otwiera biura w Londynie i Singapurze. W planach są też partnerstwa z dostawcami chmury w regionach, gdzie NVIDIA ma ograniczoną dostępność (np. Indie, Brazylia).

Ostatni element: edukacja. Gimlet Labs uruchamia program certyfikacji dla inżynierów AI, którzy chcą nauczyć się optymalizacji multi-chipowej. Kursy będą darmowe, ale wymagają rejestracji przez platformę.

Co się zmieni za rok

Jeśli Gimlet Labs dotrzyma obietnic, za 12 miesięcy vendor lock-in w AI będzie mniej opłacalny. Firmy dostaną narzędzie, które pozwoli im negocjować ceny z dostawcami sprzętu.

To nie zabije NVIDIA – ich chipy wciąż są najwydajniejsze. Zmusi jednak firmę do bardziej konkurencyjnych cen. A AMD, Intel i inni dostaną szansę na większy kawałek tortu.

Dla Ciebie, jeśli prowadzisz firmę używającą AI, to konkretna opcja do sprawdzenia. Gimlet Labs oferuje darmowy trial na 30 dni. Możesz przetestować, czy platforma rzeczywiście obniża koszty, zanim podpiszesz kontrakt.

Pytanie tylko, czy Gimlet Labs utrzyma przewagę, gdy Google, Amazon i Microsoft zbudują własne rozwiązania. Historia pokazuje, że giganty w końcu kopiują dobre pomysły. Jeśli jednak Gimlet Labs wykorzysta te 2-3 lata przewagi, może stać się standardem – jak Kubernetes w konteneryzacji.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od 18 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.