Luminal z $5,3 mln na optymalizację GPU
Źródło: Link
Uruchamianie modeli AI to dziś gra o milisekundy i dolary. Każda operacja na GPU kosztuje. Im większy model, tym wyższy rachunek. Luminal chce to zmienić – i właśnie dostał $5,3 miliona na udowodnienie, że potrafi.
Startup specjalizujący się w optymalizacji inferencji ogłosił rundę seed prowadzoną przez Felicis Ventures. Do inwestycji dołączyli również aniołowie biznesu: Paul Graham (współzałożyciel Y Combinator), Guillermo Rauch (twórca Vercel) oraz Ben Porterfield. To nazwiska, które w świecie technologii znaczą więcej niż same pieniądze.
Luminal buduje framework do pisania kodu, który działa bezpośrednio na GPU – i robi to wydajniej niż standardowe rozwiązania. Zamiast zmuszać programistów do ręcznej optymalizacji (co przy obecnej złożoności modeli graniczy z cudem), narzędzie automatycznie dostosowuje kod do specyfiki sprzętu.
Problem jest realny. Większość zespołów AI używa gotowych bibliotek, które są uniwersalne, ale niekoniecznie optymalne dla konkretnych kart graficznych. Luminal obiecuje zamknąć tę lukę bez konieczności przepisywania całej infrastruktury od zera.
Rynek inferencji AI rośnie szybciej niż dostępność mocy obliczeniowej. Firmy płacą fortuny za GPU, a potem wykorzystują zaledwie ułamek ich potencjału – bo kod nie jest wystarczająco zoptymalizowany. Luminal stawia na prostą matematykę: jeśli możesz uruchomić ten sam model taniej i szybciej, każda firma zainteresowana AI będzie Twoim klientem.
Felicis Ventures ma historię trafnych zakładów na infrastrukturę chmurową – od Shopify po Twilio. Ich zaangażowanie sygnalizuje, że optymalizacja GPU przestaje być niszowym problemem. Staje się kluczowym elementem ekonomii AI.
Jeśli Luminal dotrzyma obietnic, możemy zobaczyć spadek kosztów uruchamiania modeli językowych i systemów rekomendacyjnych. To szczególnie istotne dla mniejszych firm, które nie mają budżetów Google czy OpenAI, ale chcą wdrażać własne rozwiązania AI.
Dodatkowo lepsze wykorzystanie GPU to mniejsze zapotrzebowanie na nowy sprzęt – co w czasach niedoborów chipów przypomina muzyka dla uszu CFO każdej firmy technologicznej. Pytanie brzmi: czy framework będzie wystarczająco elastyczny, by obsłużyć różnorodność architektur i przypadków użycia? Odpowiedź poznamy w nadchodzących miesiącach.
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar