OpenAI buduje sprzęt audio. Ekrany odchodzą do lamusa?
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
OpenAI przerzuca ludzi między działami. Cel? Zbudować sprzęt, który słucha i mówi. Nie dotykasz ekranu. Nie piszesz promptów. Po prostu rozmawiasz.
Firma twierdzi, że to przyszłość na wyciągnięcie ręki.
Problem jest prosty: ludzie nie adoptują głosu tak szybko, jak OpenAI by chciało. ChatGPT ma tryb głosowy od miesięcy. Używa go... no właśnie, niewielu.
Ekrany wygrywają. Dają kontrolę. Widzisz, co piszesz. Poprawiasz błędy. Kopiujesz fragmenty.
Z głosem? Mówisz, czekasz, masz nadzieję, że AI zrozumiało.
OpenAI zakłada, że problem leży gdzie indziej — nie w technologii, ale w formie. Że potrzebujemy dedykowanych urządzeń audio, nie kolejnej funkcji w aplikacji.
Trochę jak z Alexą. Nikt nie korzystał z asystentów głosowych, dopóki Amazon nie wpakował ich do głośników. Nagle miało to sens.
Firma reorganizuje zespoły, by skupić się na dwóch rzeczach:
Nowy model głosowy — ma pojawić się na początku 2026 roku. Szybszy, bardziej naturalny, lepiej rozumiejący kontekst. Obecna wersja czasem się jąka, czasem traci wątek. Nowa ma tego nie robić.
Sprzęt audio — pierwsze urządzenie planowane na 2027 rok. Nie wiemy, jak będzie wyglądać. Słuchawki? Mały głośnik? Coś do noszenia przy sobie?
OpenAI nie podaje szczegółów. Kierunek jest za to jasny: chcą, żebyś rozmawiał z AI tak naturalnie jak z człowiekiem. I żebyś miał do tego dedykowane narzędzie.
Historia sprzętu AI nie jest kolorowa. Pamiętasz Humane AI Pin? Urządzenie za 700 dolarów, które miało zastąpić smartfona. Recenzje były druzgocące. Produkt wycofano po kilku miesiącach.
Albo Rabbit R1 — kolejny gadżet, który obiecywał rewolucję. Skończył jako ciekawostka na półce.
Problem z tymi urządzeniami? Nie robiły nic, czego nie mógłby zrobić telefon.
Były gorsze, droższe i mniej wygodne.
OpenAI ma jedną przewagę: najlepszy model głosowy na rynku. Jeśli ktoś może sprawić, że audio będzie działać, to właśnie oni.
Ale przewaga techniczna to nie wszystko. Potrzeba jeszcze odpowiedzi na pytanie: po co mi to urządzenie, skoro mam telefon?
małe urządzenie, które nosisz w kieszeni. Bez ekranu. Mikrofon i głośnik. Możesz z nim rozmawiać jak z asystentem.
Idziesz na zakupy. Mówisz: "Dodaj mleko do listy". Urządzenie notuje.
Siedzisz w samochodzie. Pytasz: "Jaki najszybszy dojazd do centrum?". Dostaje odpowiedź bez patrzenia na ekran.
Pracujesz nad projektem. Dyktuj notatki, a AI je strukturyzuje, zapisuje, przypomina o deadlinach.
To scenariusze, które już dziś działają w telefonach. Pytanie brzmi: czy dedykowane urządzenie zrobi to lepiej?
OpenAI zakłada, że tak. Że urządzenie zaprojektowane od podstaw pod audio będzie szybsze, wygodniejsze, bardziej intuicyjne.
Może mają rację. A może to kolejny gadżet, który wyląduje w szufladzie.
Na razie nic. Sprzęt ma pojawić się dopiero w 2027 roku. To dwa lata.
W świecie AI to wieczność.
Kierunek jest za to ciekawy. OpenAI nie chce być tylko dostawcą modeli. Chcą kontrolować całe doświadczenie — od software'u po hardware.
Trochę jak Apple. Najpierw system operacyjny, potem iPhone. Pełna kontrola nad tym, jak użytkownik korzysta z technologii.
Jeśli im się uda, może naprawdę zmienią sposób, w jaki rozmawiamy z komputerami. Jeśli nie — będzie to kolejna lekcja, że świetna technologia to za mało.
Czas pokaże. Na razie mamy zapowiedź, reorganizację zespołów i obietnicę, że głos to przyszłość.
Zobaczymy, czy przyszłość się z tym zgodzi.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar