Google Gemini dostanie płatności. Senatorka pyta o prywatność
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Google planuje wbudować funkcję płatności bezpośrednio w Gemini. Brzmi wygodnie — rozmawiasz z AI, wybierasz produkt, płacisz. Bez przełączania się między aplikacjami.
Problem? Senatorka Elizabeth Warren właśnie wysłała list do CEO Google z pytaniem: co zrobicie z danymi użytkowników?
Gemini — chatbot AI od Google — ma dostać funkcję checkout. W praktyce oznacza to, że będziesz mógł kupić coś bezpośrednio w rozmowie z botem. Nie musisz wchodzić na stronę sklepu, szukać produktu, przechodzić przez cały proces płatności.
Piszesz: "Potrzebuję nowych słuchawek do biegania, budżet 300 zł". Gemini pokazuje opcje, porównuje, a Ty klikasz "kup". Gotowe.
W teorii — rewelacja. W praktyce? Warren widzi tu coś, co powinno niepokoić każdego, kto używa takich narzędzi.
Elizabeth Warren — demokratka z Massachusetts, znana z tego, że Big Tech nie ma u niej łatwo — wysłała list do Sundara Pichaia, szefa Google. Pyta wprost: jak będziecie chronić dane użytkowników?
Bo sytuacja jest delikatna.
Gemini wie, o czym rozmawiasz. Google wie, co kupujesz. Sprzedawcy wiedzą, czego szukasz. Połącz to w jeden system — i masz kompletny profil użytkownika. Dokładniejszy, niż Ci się wydaje.
Warren obawia się dwóch rzeczy. Po pierwsze: że Google i sprzedawcy będą "eksploatować wrażliwe dane użytkowników". Po drugie: że mogą te dane wykorzystać w sposób, którego nie przewidujesz. I nie chodzi tu o paranoje. Google już teraz wie o Tobie sporo — dodaj do tego historię zakupów połączoną z rozmowami AI i masz narzędzie, które zna Twoje potrzeby lepiej niż Ty sam.
Załóżmy, że funkcja wejdzie w życie. Rozmawiasz z Gemini o problemach ze snem. Bot sugeruje suplementy, materac, lampę blokującą niebieskie światło. Kupujesz przez chatbota.
Google teraz wie, że masz problemy ze snem. Wie, co kupiłeś. Wie, czy pomogło — bo pewnie wrócisz do tematu. To informacja, którą można wykorzystać. Do reklam, do profilowania, do sprzedaży innym firmom.
Warren pyta: czy użytkownicy będą wiedzieć, jakie dane są zbierane? Czy będą mogli się nie zgodzić? Czy Google sprzeda te dane dalej.
To pytania, na które Google jeszcze publicznie nie odpowiedział.
Gemini nie jest jedynym chatbotem, który idzie w kierunku e-commerce. OpenAI testuje podobne funkcje w ChatGPT. Meta pewnie też nad czymś pracuje.
Wzorzec jest prosty: im więcej robisz w jednym miejscu, tym wygodniej. Ale też — tym więcej danych zostawiasz w jednym miejscu.
I tu pojawia się pytanie: czy wygoda jest warta ryzyka.
Bo nie chodzi tylko o to, że Google będzie wiedział, co kupujesz. Chodzi o to, że będzie wiedział, dlaczego, kiedy, w jakim kontekście. I co z tą wiedzą zrobi.
Warren czeka na odpowiedź od Google. Nie wiadomo, czy i kiedy ją dostanie. Nie wiadomo też, czy odpowiedź będzie satysfakcjonująca.
Jedno jest pewne: pytania o prywatność w AI będą się nasilać. Bo im więcej AI robi za nas, tym więcej wie o nas. I ktoś musi zapytać — kto kontroluje tę wiedzę.
Na razie pyta senatorka. Pytanie dotyczy jednak każdego, kto używa chatbotów. To nie jest abstrakcyjny problem regulacyjny. To kwestia tego, co dzieje się z Twoimi danymi, gdy rozmawiasz z AI o swoich potrzebach, problemach, planach.
Google pewnie odpowie, że wszystko jest bezpieczne, szyfrowane, zgodne z regulacjami.
Pytanie brzmi: czy to wystarczy.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar