Modele AI
Modele AI · 4 min czytania · 15 grudnia 2025

Okulary z Gemini w środku. Testowałem i mam mieszane uczucia

Okulary z Gemini w środku. Testowałem i mam mieszane uczucia

Źródło: Link

Kurs AI Evolution

118 lekcji od zera do eksperta. Bez kodowania.

Sprawdź kurs →

Powiązane tematy

RayNeo właśnie wypuściło okulary AR z Gemini w środku. Kolorowy wyświetlacz, sztuczna inteligencja na wyciągnięcie ręki, futurystyczna wizja przyszłości.

Problem w tym, że po kilku dniach testów nie jestem przekonany.

Co to w ogóle są okulary AR z AI

Zacznijmy od podstaw. AR to rozszerzona rzeczywistość (Augmented Reality) – technologia, która nakłada cyfrowe informacje na to, co widzisz w realnym świecie. wirtualnych karteczkach samoprzylepnych rozrzuconych po Twoim otoczeniu.

RayNeo poszło o krok dalej. Wbudowali w okulary Gemini – model AI od Google, który potrafi rozmawiać, analizować obrazy i odpowiadać na pytania. W teorii nosisz okulary, patrzysz na świat, a AI podpowiada Ci informacje w czasie rzeczywistym.

Dla kogoś, kto nie jest z branży tech: to jak mieć asystenta, który widzi to samo co Ty i szepce Ci do ucha.

Kolorowy wyświetlacz robi wrażenie

Pierwsze, co rzuca się w oczy – dosłownie – to wyświetlacz. Większość okularów AR pokazuje tylko zielonkawy lub biały tekst. RayNeo ma pełny kolor.

I to się czuje. Ikony, mapy, powiadomienia – wszystko wygląda żywiej. Jakbyś przeszedł z czarno-białej telewizji na kolorową.

Ale.

Jasność to problem. W pomieszczeniu? Świetnie. Na słońcu? Ledwo widać. Testowałem je w grudniowe popołudnie – słońce nisko, ale wystarczająco jasne, żeby tekst zniknął w tle. Dla kogoś, kto chce używać okularów na zewnątrz, to spory minus.

Gemini w okularach – brzmi lepiej niż działa

Integracja z Gemini to główny selling point. Pytasz głosem, AI odpowiada. Patrzysz na obiekt, AI go rozpoznaje.

W praktyce? Działa, ale z opóźnieniem. Zapytasz o coś, czekasz sekundę, dwie, czasem trzy. To nie jest wiele, ale wystarczy, żeby zepsuć płynność doświadczenia.

Przykład: patrzę na budynek, pytam "Co to jest?". Gemini myśli. Ja czekam. W międzyczasie już odwróciłem wzrok i straciłem kontekst.

To trochę jak rozmawiać z kimś przez słabe łącze internetowe. Technicznie działa, ale frustruje.

Rozpoznawanie obrazów – hit and miss

Gemini potrafi analizować to, co widzisz przez okulary. Skierujesz wzrok na przedmiot, AI go identyfikuje.

Testowałem na różnych rzeczach: książki, rośliny, jedzenie. Książki rozpoznawało bezbłędnie. Rośliny – różnie. Jedzenie – czasem trafiało, czasem wyrzucało coś abstrakcyjnego.

Najgorsza część? Brak kontekstu. AI mówi Ci, że to "ficus", ale nie podpowiada, jak go pielęgnować. Albo rozpoznaje danie, ale nie sugeruje, gdzie możesz je zjeść w okolicy.

Użyteczność ograniczona.

Bateria – klasyczny problem smart-okularów

RayNeo obiecuje 3-4 godziny aktywnego użytkowania. W moich testach wyszło około 3 godzin z włączonym AI i wyświetlaczem.

To nie jest dużo. Dla porównania: zwykłe okulary działają... no, w nieskończoność. Te musisz ładować codziennie.

Jeśli myślisz o nich jak o zamienniku telefonu – zapomnij. To raczej dodatek, który włączasz na konkretne okazje.

Design – wyglądają jak normalne okulary (prawie)

Tutaj RayNeo zasługuje na pochwałę. Nie wyglądają jak gadżet z science fiction. Trochę grubsze niż standardowe oprawki, ale da się je nosić bez przyciągania wzroku.

Waga? Odczuwalna, ale nie krytyczna. Po godzinie zaczynasz zauważać, że coś jest na nosie. Po dwóch lekko męczy.

Dla kogoś, kto nosi okulary na co dzień: Nie tragedia, ale różnica jest.

Dla kogo to w ogóle jest

To nie są okulary dla każdego. Jeśli szukasz zamiennika telefonu – odpuść. Jeśli chcesz gadżetu na "wow" – może być.

Najlepszy use case? Sytuacje, gdzie nie możesz wyciągnąć telefonu. Jazda na rowerze (choć bezpieczeństwo dyskusyjne), warsztaty z rękami zajętymi, prezentacje.

Dla przedsiębiorcy: widzę potencjał w logistyce, serwisie technicznym, szkoleniach. Pracownik patrzy na maszynę, AI podpowiada instrukcje. To ma sens.

Dla przeciętnego użytkownika? Jeszcze nie teraz.

Co musi się zmienić

Żeby te okulary miały sens, RayNeo musi poprawić trzy rzeczy:

Jeden: jasność wyświetlacza. Jeśli nie działa na słońcu, to nie działa tam, gdzie ludzie spędzają połowę dnia.

Dwa: opóźnienie AI. Sekundy się liczą. Gemini musi reagować szybciej, inaczej ludzie przestaną pytać.

Trzy: kontekst. AI, które tylko nazywa rzeczy, to za mało. Potrzebuję działań: "To ficus, podlej go raz w tygodniu" albo "To pad thai, najbliższa restauracja 200 metrów stąd".

Bez tego to ciekawy prototyp, nie gotowy produkt.

Czy warto czekać na kolejną wersję

RayNeo zrobiło coś, czego większość firm jeszcze nie ogarnia – wpakowało AI do okularów i sprawiło, że to działa. Nie idealnie, ale działa.

Problem w tym, że "działa" to za mało, żeby wydać kilkaset dolarów. Zwłaszcza gdy konkurencja (Meta, Apple w przyszłości) szykuje swoje rozwiązania.

Jeśli jesteś early adopterem i lubisz testować niedoskonałe technologie – możesz spróbować. Jeśli chcesz czegoś, co po prostu działa – poczekaj na wersję 2.0.

Albo na to, co pokaże Meta za pół roku.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.