Waymo wpuszcza Gemini do swoich robotaksówek
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Waymo – firma Google'a zajmująca się autonomicznymi samochodami – testuje coś, co przypomina science fiction. Robotaksówki, które nie tylko wiozą Cię do celu, ale też odpowiadają na pytania i pomagają obsługiwać pojazd.
Gemini – czyli chatbot AI od Google – ma trafić do wnętrza tych aut. I nie chodzi tylko o gadżet.
sytuację: wsiadasz do autonomicznego auta. Nie ma kierowcy. Ekran przed Tobą świeci się, a Ty możesz zapytać: "Jak długo jeszcze do centrum?" albo "Czy możesz zmienić trasę przez park?"
Gemini ma odpowiadać na takie pytania. Ale to nie wszystko.
System może też pomagać w kontroli pojazdu – nie w sensie "przejęcia kierownicy", bo tej nie ma. Chodzi raczej o interakcję z ustawieniami: klimatyzacja, muzyka, nawigacja. Wszystko przez rozmowę z AI.
To jak Siri czy Alexa, tyle że w aucie, które samo prowadzi.
Robotaksówki Waymo działają już w kilku miastach USA – głównie w Phoenix i San Francisco. Ludzie korzystają z nich codziennie. Ale jest jeden problem: brak kierowcy oznacza brak osoby, którą możesz o coś zapytać.
"Gdzie jesteśmy?" "Dlaczego auto zwalnia?" "Czy mogę zmienić muzykę?"
Bez interfejsu, który rozumie ludzki język, pasażer czuje się... zagubiony. Ekrany dotykowe działają, ale nie każdy chce grzebać w menu podczas jazdy.
Gemini ma rozwiązać ten problem. Zamiast klikać – mówisz. Zamiast szukać opcji – pytasz.
Gemini to LLM – Large Language Model, czyli "mózg" podobny do tego w ChatGPT. Rozumie język naturalny, analizuje kontekst i generuje odpowiedzi.
W robotaksówce system musiałby być zintegrowany z oprogramowaniem pojazdu. To znaczy: Gemini nie tylko odpowiada na pytania, ale też "rozmawia" z systemami auta. Jak? Przez API – interfejs, który pozwala programom wymieniać się danymi.
Przykład: pytasz "Jak długo do celu?", a Gemini odpytuje system nawigacji i mówi: "Około 12 minut, jeśli nie będzie korków".
W praktyce to skomplikowane. AI musi być szybkie (nikt nie chce czekać 10 sekund na odpowiedź), bezpieczne (nie może mylić poleceń) i niezawodne (co, jeśli straci połączenie z internetem?).
Jeśli integracja wyjdzie, robotaksówki staną się bardziej... ludzkie. Nie w sensie emocjonalnym, ale w interakcji.
Zamiast sterylnego doświadczenia – ekran, cicha jazda, wysiadasz – dostajesz coś bliższego rozmowie z kierowcą. Tylko że ten "kierowca" nigdy nie jest zmęczony, nie ma złego dnia i zawsze wie, gdzie jesteście.
Dla osób starszych albo mniej obeznanych z technologią to ogromna różnica. Zamiast uczyć się obsługi interfejsu – po prostu pytasz.
Dla Google'a to też krok w stronę ekosystemu. Gemini w telefonie, w domu (przez Nest), w aucie. Wszędzie ten sam asystent, który "zna" Twoje preferencje.
Waymo nie podało konkretnej daty. Informacje mówią o testach, nie o wdrożeniu.
Ale kontekst jest ciekawy: Google właśnie wypuścił Gemini 2.0 – najnowszą wersję swojego modelu AI. Firma chwali się, że jest szybszy, bardziej precyzyjny i lepiej radzi sobie z wielozadaniowością.
Integracja z Waymo przypomina naturalny następny krok. Zwłaszcza że konkurencja nie śpi – Tesla rozwija własnego asystenta głosowego, a firmy jak Cruise (należąca do GM) też eksperymentują z AI w autonomicznych pojazdach.
Jeśli miałbym strzelać? Pierwsze testy publiczne – może w 2026 roku. Pełne wdrożenie – rok, dwa później. Ale to tylko spekulacja.
Pytanie kluczowe. AI w aucie to nie to samo, co AI w telefonie. Błąd chatbota na ekranie? Irytujące. Błąd systemu w jeżdżącym pojeździe? Potencjalnie niebezpieczne.
Waymo zapewne oddzieli systemy: Gemini obsługuje interakcję z pasażerem, ale nie ma bezpośredniego wpływu na decyzje dotyczące jazdy (hamowanie, skręcanie, prędkość). Te kontroluje osobny, ściśle przetestowany system.
To jak dwa mózgi: jeden do rozmowy, drugi do prowadzenia. Rozdzielenie odpowiedzialności zmniejsza ryzyko.
Ale obawy pozostają. Co, jeśli ktoś spróbuje "zhackować" Gemini przez głos? Albo co, jeśli AI źle zinterpretuje polecenie i zmieni ustawienia w niewłaściwym momencie?
Waymo będzie musiało to wszystko przetestować. I pewnie dlatego na razie mówią o testach, nie o premierze.
Pewnie tak. Autonomiczne pojazdy bez dobrego interfejsu
Tesla już ma asystenta głosowego, choć póki co dość podstawowego. Cruise eksperymentuje z własnymi rozwiązaniami. A chińskie firmy jak Baidu (z projektem Apollo Go) testują podobne technologie.
Waymo ma przewagę: dostęp do Gemini, jednego z najlepszych modeli AI na rynku. Ale konkurencja szybko nadrabia.
Za kilka lat rozmowa z autem może być tak normalna jak rozmowa z telefonem.
Jeśli Waymo uda się zintegrować Gemini płynnie, ustawi nowy standard. Pasażerowie zaczną oczekiwać, że każde autonomiczne auto "potrafi rozmawiać".
To presja na inne firmy. I impuls do rozwoju interfejsów głosowych w motoryzacji – nie tylko w robotaksówkach, ale też w zwykłych samochodach.
A dla Google'a? Kolejny krok w budowaniu wszechobecnego asystenta AI. Gemini w kieszeni, w domu, w aucie. Wszędzie tam, gdzie jesteś.
To przypomina przyszłość? Może. Ale ta przyszłość właśnie testuje się na ulicach Phoenix.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar