Okulary z Gemini w środku. Testowałem i mam mieszane uczucia
Źródło: Link
Źródło: Link
118 lekcji bez kodowania. ChatGPT, Claude, Gemini, automatyzacje. Notatnik AI i AI Coach w cenie.
RayNeo właśnie wypuściło okulary AR z Gemini w środku. Kolorowy wyświetlacz, sztuczna inteligencja na wyciągnięcie ręki, futurystyczna wizja przyszłości.
Problem w tym, że po kilku dniach testów nie jestem przekonany.
Zacznijmy od podstaw. AR to rozszerzona rzeczywistość (Augmented Reality) – technologia, która nakłada cyfrowe informacje na to, co widzisz w realnym świecie. wirtualnych karteczkach samoprzylepnych rozrzuconych po Twoim otoczeniu.
RayNeo poszło o krok dalej. Wbudowali w okulary Gemini – model AI od Google, który potrafi rozmawiać, analizować obrazy i odpowiadać na pytania. W teorii nosisz okulary, patrzysz na świat, a AI podpowiada Ci informacje w czasie rzeczywistym.
Dla kogoś, kto nie jest z branży tech: to jak mieć asystenta, który widzi to samo co Ty i szepce Ci do ucha.
Pierwsze, co rzuca się w oczy – dosłownie – to wyświetlacz. Większość okularów AR pokazuje tylko zielonkawy lub biały tekst. RayNeo ma pełny kolor.
I to się czuje. Ikony, mapy, powiadomienia – wszystko wygląda żywiej. Jakbyś przeszedł z czarno-białej telewizji na kolorową.
Ale.
Jasność to problem. W pomieszczeniu? Świetnie. Na słońcu? Ledwo widać. Testowałem je w grudniowe popołudnie – słońce nisko, ale wystarczająco jasne, żeby tekst zniknął w tle. Dla kogoś, kto chce używać okularów na zewnątrz, to spory minus.
Integracja z Gemini to główny selling point. Pytasz głosem, AI odpowiada. Patrzysz na obiekt, AI go rozpoznaje.
W praktyce? Działa, ale z opóźnieniem. Zapytasz o coś, czekasz sekundę, dwie, czasem trzy. To nie jest wiele, ale wystarczy, żeby zepsuć płynność doświadczenia.
Przykład: patrzę na budynek, pytam "Co to jest?". Gemini myśli. Ja czekam. W międzyczasie już odwróciłem wzrok i straciłem kontekst.
To trochę jak rozmawiać z kimś przez słabe łącze internetowe. Technicznie działa, ale frustruje.
Gemini potrafi analizować to, co widzisz przez okulary. Skierujesz wzrok na przedmiot, AI go identyfikuje.
Testowałem na różnych rzeczach: książki, rośliny, jedzenie. Książki rozpoznawało bezbłędnie. Rośliny – różnie. Jedzenie – czasem trafiało, czasem wyrzucało coś abstrakcyjnego.
Najgorsza część? Brak kontekstu. AI mówi Ci, że to "ficus", ale nie podpowiada, jak go pielęgnować. Albo rozpoznaje danie, ale nie sugeruje, gdzie możesz je zjeść w okolicy.
Użyteczność ograniczona.
RayNeo obiecuje 3-4 godziny aktywnego użytkowania. W moich testach wyszło około 3 godzin z włączonym AI i wyświetlaczem.
To nie jest dużo. Dla porównania: zwykłe okulary działają... no, w nieskończoność. Te musisz ładować codziennie.
Jeśli myślisz o nich jak o zamienniku telefonu – zapomnij. To raczej dodatek, który włączasz na konkretne okazje.
Tutaj RayNeo zasługuje na pochwałę. Nie wyglądają jak gadżet z science fiction. Trochę grubsze niż standardowe oprawki, ale da się je nosić bez przyciągania wzroku.
Waga? Odczuwalna, ale nie krytyczna. Po godzinie zaczynasz zauważać, że coś jest na nosie. Po dwóch lekko męczy.
Dla kogoś, kto nosi okulary na co dzień: Nie tragedia, ale różnica jest.
To nie są okulary dla każdego. Jeśli szukasz zamiennika telefonu – odpuść. Jeśli chcesz gadżetu na "wow" – może być.
Najlepszy use case? Sytuacje, gdzie nie możesz wyciągnąć telefonu. Jazda na rowerze (choć bezpieczeństwo dyskusyjne), warsztaty z rękami zajętymi, prezentacje.
Dla przedsiębiorcy: widzę potencjał w logistyce, serwisie technicznym, szkoleniach. Pracownik patrzy na maszynę, AI podpowiada instrukcje. To ma sens.
Dla przeciętnego użytkownika? Jeszcze nie teraz.
Żeby te okulary miały sens, RayNeo musi poprawić trzy rzeczy:
Jeden: jasność wyświetlacza. Jeśli nie działa na słońcu, to nie działa tam, gdzie ludzie spędzają połowę dnia.
Dwa: opóźnienie AI. Sekundy się liczą. Gemini musi reagować szybciej, inaczej ludzie przestaną pytać.
Trzy: kontekst. AI, które tylko nazywa rzeczy, to za mało. Potrzebuję działań: "To ficus, podlej go raz w tygodniu" albo "To pad thai, najbliższa restauracja 200 metrów stąd".
Bez tego to ciekawy prototyp, nie gotowy produkt.
RayNeo zrobiło coś, czego większość firm jeszcze nie ogarnia – wpakowało AI do okularów i sprawiło, że to działa. Nie idealnie, ale działa.
Problem w tym, że "działa" to za mało, żeby wydać kilkaset dolarów. Zwłaszcza gdy konkurencja (Meta, Apple w przyszłości) szykuje swoje rozwiązania.
Jeśli jesteś early adopterem i lubisz testować niedoskonałe technologie – możesz spróbować. Jeśli chcesz czegoś, co po prostu działa – poczekaj na wersję 2.0.
Albo na to, co pokaże Meta za pół roku.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar