Narzedzia AI
Narzedzia AI · 5 min czytania · 7 stycznia 2026

Razer zamknął AI w szklanym słoju. I to działa

Razer zamknął AI w szklanym słoju. I to działa

Źródło: Link

Darmowy webinar — AI od zera

90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.

Zapisz się →

Powiązane tematy

Razer pokazał na CES 2026 coś, co jeszcze rok temu brzmiałoby jak scenariusz z filmu sci-fi. Project Ava to holograficzny asystent AI zamknięty w szklanym cylindrze wielkości kubka do kawy. Nie, to nie gadżet dla fanów Star Wars. To prototyp, który może zmienić sposób, w jaki rozmawiasz z maszynami.

Bo widzisz, problem z obecnymi asystentami AI jest prosty — siedzą w telefonie, komputerze albo głośniku. Nie mają twarzy. Nie patrzą na ciebie. Nie gestykulują. A to właśnie te rzeczy sprawiają, że komunikacja staje się naturalna.

Hologram patrzy prosto na ciebie

Project Ava to cylinder wypełniony specjalnym płynem. W środku unosi się hologram – postać ludzka w pełnym 3D. Zadajesz pytanie, postać się odwraca, nawiązuje kontakt wzrokowy i odpowiada. Gestykuluje. Zmienia mimikę.

technologia wykorzystuje coś, co Razer nazywa "volumetric display" – wyświetlacz objętościowy. Zamiast płaskiego obrazu na ekranie dostajesz trójwymiarową projekcję widoczną z każdej strony. Nie potrzebujesz okularów VR. Nie potrzebujesz specjalnych gogli. Po prostu patrzysz.

Cylinder ma 15 centymetrów średnicy i 20 centymetrów wysokości. Mieści się na biurku obok monitora. Podłączasz do prądu, łączysz przez Wi-Fi z systemem AI. I masz asystenta, który wygląda jak miniaturowy człowiek stojący na twoim biurku.

Dlaczego twarz robi różnicę

Może to przypomina niepotrzebny fajer. W końcu ChatGPT działa świetnie bez żadnej twarzy. Jest haczyk.

Badania pokazują, że ludzie inaczej reagują na AI z ludzką twarzą. Są bardziej skłonni zadawać pytania. Dłużej rozmawiają. Czują się komfortowo. To nie jest racjonalne — ale działa. Nasz mózg jest zaprogramowany na rozpoznawanie twarzy i czytanie emocji. Gdy asystent ma twarz, automatycznie traktujemy go poważniej.

Razer poszedł dalej. Ava nie tylko ma twarz – reaguje na kontekst. Pytasz o pogodę, może się uśmiechnąć albo zmarszczyć brwi. Tłumaczy skomplikowaną sprawę, gestykuluje. To detale. Sprawiają jednak, że interakcja przestaje być mechaniczna.

I tu pojawia się ciekawa rzecz — Ava działa na modelu AI podobnym do GPT-5 (czyli "mózgu" ChatGPT), ale dodatkowo przetwarza sygnały niewerbalne. Widzi cię przez wbudowaną kamerę. Analizuje ton głosu. Dostosowuje odpowiedzi nie tylko do tego, co mówisz, ale jak to mówisz.

Co z tym zrobisz

Razer prezentuje Project Ava jako asystenta do pracy. Stawiasz go na biurku i używasz jak inteligentniejszej wersji Siri albo Alexy.

Przykłady? Prosisz o podsumowanie maili z ostatniego dnia. Ava wyświetla kluczowe informacje i czyta je na głos, patrząc na ciebie. Pytasz o harmonogram spotkań – pokazuje kalendarz jako holograficzny interfejs unoszący się obok swojej postaci. Potrzebujesz pomocy w przygotowaniu prezentacji – Ava sugeruje strukturę, a ty edytujesz ją gestami w powietrzu.

Tak. Prototyp już działa. Na CES 2026 dziennikarze mogli go przetestować. Reakcje? Od "to gimmick" po "to zmienia wszystko". Jak zwykle przy nowych technologiach.

Technologia za szkłem

Jak to działa od środka? Razer nie ujawnia wszystkich szczegółów. Kilka rzeczy wiemy.

Cylinder wypełnia specjalny płyn – prawdopodobnie mieszanka gliceryny i wody z dodatkiem mikroskopijnych cząstek. Lasery świecą przez ten płyn z różnych kątów. Cząstki rozpraszają światło w precyzyjnie wyliczonych punktach. Efekt? Obraz 3D unoszący się w przestrzeni.

To nie jest nowa technologia – podobne rozwiązania istnieją od lat w laboratoriach. Nowość polega na miniaturyzacji i połączeniu z AI. Wcześniej potrzebowałeś instalacji wielkości szafy. Teraz mieści się w słoiku.

Procesor znajduje się w podstawie cylindra. Razer używa własnego chipa zaprojektowanego specjalnie pod renderowanie hologramów w czasie rzeczywistym. Urządzenie łączy się z chmurą – tam siedzi główny model AI. Lokalnie działa tylko warstwa odpowiedzialna za mimikę, gesty i szybkie odpowiedzi.

Głośniki wbudowane w podstawę. Mikrofony z redukcją szumów. Kamera śledząca twoje ruchy i mimikę. Całość pobiera około 45 watów – mniej więcej tyle co laptop.

Pytania wiszące w powietrzu

Project Ava to prototyp. Razer nie podał daty premiery ani ceny. Możemy zgadywać.

Technologia wyświetlaczy objętościowych jest droga. Podobne urządzenia kosztują dziś od kilku do kilkudziesięciu tysięcy dolarów. Razer musiałby zejść poniżej tysiąca dolarów, żeby miało to sens dla zwykłych użytkowników. Możliwe? Tak, ale nie w tym roku.

Drugi problem: prywatność. Urządzenie ma kamerę i mikrofon zawsze włączone. Nagrywa wszystko, co dzieje się w pokoju. Przetwarza to przez AI w chmurze. Razer zapewnia, że dane są szyfrowane i nie są przechowywane. Zaufanie to inna sprawa.

Trzeci: po co? Czy naprawdę potrzebujesz holograficznego asystenta na biurku? Telefon w kieszeni nie wystarcza? To pytanie, na które rynek odpowie dopiero po premierze. Może to będzie hit. Może kurz na półce.

Dlaczego to ważne

Nawet jeśli Project Ava nie trafi do masowej sprzedaży, pokazuje kierunek. AI przestaje być niewidzialnym głosem w tle. Zyskuje fizyczną obecność. Twarz. Ciało (choć holograficzne).

To zmienia psychologię interakcji. Gdy asystent AI wygląda jak osoba stojąca naprzeciwko, inaczej z nim rozmawiasz. Bardziej naturalnie. Mniej mechanicznie. I to może być przełom w tym, jak AI wchodzi do twojego życia.

Razer nie jest jedyną firmą eksperymentującą z fizycznymi asystentami AI. Rabbit pokazał urządzenie R1 – przenośny gadżet z AI. Humane wypuścił AI Pin – broszkę z projektorem i asystentem. Każdy szuka formy, która sprawi, że AI stanie się czymś więcej niż aplikacją.

Project Ava to kolejna próba. Może najefektowniejsza wizualnie. Hologram na biurku przyciąga uwagę. Czy przyciągnie też portfele? Zobaczymy.

Na razie to prototyp pokazywany na targach. Prototypy z CES mają dziwną właściwość — co drugi rok któryś z nich zmienia rynek. Może tym razem to będzie szklany słoik z hologramem.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.