Subtle Computing izoluje głos w hałasie za 6 mln dolarów
Źródło: Link
Źródło: Link
90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.
Próbowałeś kiedyś dyktować wiadomość w zatłoczonym metrze? Albo na ulicy pełnej samochodów? Twój asystent głosowy prawdopodobnie zrozumiał połowę słów – i to w najlepszym razie. Subtle Computing chce to zmienić dzięki modelom AI, które wyciągają Twój głos z najbardziej chaotycznego tła dźwiękowego.
Startup właśnie zamknął rundę seed na poziomie 6 milionów dolarów. Pieniądze mają pomóc w rozwijaniu technologii izolacji głosu, która eliminuje szumy otoczenia i pozwala komputerom rozumieć, co mówisz – nawet gdy wokół dzieje się akustyczny armagedon.
Technologia Subtle Computing wykorzystuje zaawansowane modele uczenia maszynowego do separacji źródeł dźwięku. System analizuje sygnał audio w czasie rzeczywistym, identyfikuje charakterystykę ludzkiego głosu i odcina wszystko inne – rozmowy w tle, hałas uliczny, dźwięki maszyn czy muzykę.
To nie jest zwykły filtr szumów, który po prostu wycisza wszystko poza określonymi częstotliwościami. Modele firmy uczą się rozpoznawać wzorce mowy. Potrafią wyizolować głos nawet wtedy, gdy jest ledwo słyszalny w morzu innych dźwięków. Efekt? Twój asystent głosowy, aplikacja do transkrypcji czy system wideokonferencyjny dostają czysty sygnał, jakbyś mówił w studiu nagraniowym.
Kluczową przewagą tego podejścia jest praca w czasie rzeczywistym. Klasyczne metody redukcji szumów, takie jak filtrowanie spektralne czy proste bramkowanie sygnału, działają dobrze w kontrolowanych warunkach – studio, biuro, ciche mieszkanie. Zawodzą jednak w środowiskach dynamicznych, gdzie charakter hałasu zmienia się co sekundę. Modele oparte na uczeniu maszynowym uczą się na ogromnych zbiorach danych dźwiękowych zebranych w różnych środowiskach akustycznych. Dzięki temu potrafią adaptować się do nowych, niewidzianych wcześniej kombinacji dźwięków – i robią to bez zauważalnego opóźnienia, które dyskwalifikowałoby technologię w zastosowaniach konwersacyjnych.
Subtle Computing nie zamierza poprzestać na samym oprogramowaniu. Firma zapowiedziała, że w 2026 roku zaprezentuje własne urządzenie sprzętowe wykorzystujące jej technologię izolacji głosu.
Szczegóły pozostają tajemnicą. Można się jednak spodziewać dedykowanego procesora audio z wbudowanymi modelami AI. Taki sprzęt mógłby działać jako zewnętrzny mikrofon dla laptopów, moduł do integracji ze słuchawkami albo samodzielne urządzenie do komunikacji w trudnych warunkach akustycznych.
Decyzja o wejściu w hardware to odważny krok. Startupy programistyczne rzadko decydują się na produkcję własnych urządzeń – łańcuch dostaw, certyfikacje, zarządzanie zapasami to wyzwania zupełnie innej skali niż pisanie kodu. Jednocześnie posiadanie własnego sprzętu daje coś bezcennego: pełną kontrolę nad stosem technologicznym od mikrofonu po model AI. Oznacza też potencjalne dodatkowe źródło przychodów i możliwość dotarcia do klientów, którzy nie chcą integrować zewnętrznego SDK, lecz potrzebują gotowego rozwiązania pudełkowego.
Zastosowań jest multum. Dziennikarze nagrywający wywiady na ulicy. Lekarze dyktujący notatki w szpitalnych korytarzach. Kierowcy używający poleceń głosowych w jadącym aucie (gdzie hałas silnika potrafi skutecznie zagłuszyć mowę). Także osoby pracujące zdalnie z hałaśliwych kawiarni czy coworkingów.
Technologia może też wspierać osoby niedosłyszące – systemy transkrypcji na żywo działają znacznie lepiej, gdy dostają czysty sygnał głosowy bez szumów tła. Każdy, kto korzysta z automatycznych napisów, wie, jak frustrujące potrafią być błędy rozpoznawania w głośnym otoczeniu.
Warto też zwrócić uwagę na sektor przemysłowy. Operatorzy maszyn w halach produkcyjnych, pracownicy lotnisk czy portów – to grupy, które od lat borykają się z problemem komunikacji głosowej w ekstremalnie głośnym środowisku. Obecne rozwiązania opierają się głównie na drogich mikrofach kierunkowych i słuchawkach z aktywną redukcją hałasu. Oprogramowanie oparte na modelach AI mogłoby zaoferować podobny efekt przy znacznie niższym koszcie sprzętu.
6 milionów dolarów to solidny kapitał na start. Rynek technologii audio to jednak coraz bardziej zatłoczone miejsce. W ostatnich latach pojawiły się narzędzia takie jak NVIDIA RTX Voice, Krisp czy Dolby.io, które oferują redukcję szumów w modelu subskrypcyjnym dla twórców treści i pracowników zdalnych. Każde z nich zbudowało już własną bazę użytkowników i integracje z popularnymi platformami wideokonferencyjnymi.
Subtle Computing wchodzi na ten rynek z założeniem, że sama jakość izolacji głosu w najtrudniejszych warunkach akustycznych wystarczy, by się wyróżnić. To założenie wiarygodne – dotychczasowe rozwiązania radzą sobie dobrze z typowym hałasem biurowym, ale często zawodzą w bardziej ekstremalnych scenariuszach. Jeśli firma rzeczywiście potrafi utrzymać wysoką jakość transkrypcji tam, gdzie inne narzędzia się poddają, ma realną szansę na zbudowanie niszy.
Pytanie, czy Subtle Computing zdąży zbudować przewagę technologiczną, zanim większe firmy – Apple, Google, Microsoft – zintegrują podobne rozwiązania ze swoimi ekosystemami. Czas pokaże, czy startup zdoła się wybić ponad hałas konkurencji.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar