Perplexity sprzedawało „prywatne” czaty. Pozew mówi wprost: oszustwo
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Miliony użytkowników Perplexity włączały tryb incognito, wierząc, że ich pytania do AI pozostaną prywatne. Tymczasem firma sprzedawała te dane Google i Meta. Teraz odpowiada przed sądem za oszustwo, które miało zwiększyć przychody z reklam.
Perplexity AI — wyszukiwarka oparta na sztucznej inteligencji — oferowała użytkownikom tryb incognito. Obietnica była prosta: Twoje pytania nie będą zapisywane, nie trafią do historii, nie zostaną wykorzystane do treningu modeli. Standardowa funkcja prywatności, jaką znasz z przeglądarek.
Pozew zbiorowy złożony w sądzie federalnym twierdzi coś innego. Według dokumentów, Perplexity przekazywało treść rozmów prowadzonych w trybie incognito do Google i Meta. Cel? Zwiększenie przychodów z targetowanych reklam. Firma budowała profile użytkowników na podstawie „prywatnych” czatów, by później sprzedawać te dane partnerom reklamowym.
Powodowie argumentują, że to nie była pomyłka ani błąd techniczny. To świadomy model biznesowy. Perplexity potrzebowało danych, by konkurować z Google w wyścigu o reklamy. Użytkownicy w trybie incognito byli idealnym źródłem — zadawali pytania, których nigdy nie wpisaliby w zwykłej wyszukiwarce. Pytania o zdrowie, finanse, relacje. Dane, które w reklamie są warte krocie.
Każda wyszukiwarka zbiera dane. Google robi to od lat, Meta również. Różnica polega na obietnicy.
Gdy włączasz tryb incognito, dostajesz gwarancję: to, co robisz, zostaje między Tobą a narzędziem. Nie trafia do historii, nie buduje profilu reklamowego, nie zasila algorytmów targetowania.
Perplexity złamało tę umowę. Użytkownicy świadomie wybierali prywatność — i płacili za nią czasem (tryb incognito często wymaga konta premium). Tymczasem firma zbierała dane dokładnie tak, jakby tryb incognito nie istniał. I przekazywała je dalej.
Pozew nie oszczędza też Google i Meta. Obie firmy wymienione są jako współuczestnicy naruszenia prywatności. Według dokumentów, Google i Meta wiedziały, skąd pochodzą dane — i świadomie je przyjmowały, by wzbogacić własne systemy reklamowe.
To nie pierwsza sprawa tego typu. Google już wcześniej odpowiadało przed sądem za działania związane z AI. Meta również ma na koncie pozwy dotyczące prywatności. Ten przypadek jest inny — dotyczy bezpośredniego naruszenia obietnicy prywatności w narzędziu AI, które prezentowało się jako alternatywa dla „śledzących” wyszukiwarek.
Powodowie żądają odszkodowań za naruszenie prywatności, zwrotu kosztów subskrypcji premium (która miała gwarantować dodatkową ochronę danych) oraz zakazu dalszego udostępniania danych z trybu incognito. Sprawa może objąć miliony użytkowników z USA, którzy korzystali z funkcji prywatności w Perplexity.
Perplexity nie jest jedynym narzędziem AI oferującym tryb prywatności. ChatGPT ma opcję wyłączenia historii rozmów. Claude pozwala na anonimowe sesje. Gemini również oferuje tryb, który nie zapisuje danych.
Sprawa Perplexity pokazuje, jak łatwo można złamać zaufanie użytkowników. Wystarczy drobny zapis w regulaminie, który pozwala na „udostępnianie danych partnerom w celu poprawy usług”. Albo brak jasnego zakazu przekazywania danych z trybu incognito. Użytkownik nie ma szans tego zweryfikować — musi wierzyć firmie na słowo.
Nie ma pewności. Możesz przeczytać politykę prywatności (choć większość z nich to 40 stron prawniczego żargonu). Możesz sprawdzić, czy firma ma certyfikaty bezpieczeństwa. Możesz poczekać, aż ktoś złoży pozew — i wtedy dowiesz się, że Twoje dane były sprzedawane od miesięcy.
Realna ochrona wymaga regulacji. W Unii Europejskiej RODO daje użytkownikom prawo do usunięcia danych i zakazu ich przetwarzania. W USA takich gwarancji brak — stąd pozwy zbiorowe są często jedyną drogą do rozliczenia firm. Polskie firmy powoli zaczynają traktować bezpieczeństwo AI poważnie, choć wciąż brakuje standardów branżowych.
Firma nie skomentowała jeszcze pozwu publicznie. Typowa strategia w takich przypadkach to zaprzeczenie, negocjacje pozasądowe i ewentualna ugoda bez przyznania się do winy. Google i Meta mają doświadczenie w takich sprawach — ich zespoły prawne są przygotowane na lata batalii sądowych.
Dla Perplexity stawka jest wyższa. To stosunkowo młoda firma, która budowała markę na obietnicach lepszej prywatności niż Google. Jeśli pozew się powiedzie, straci nie tylko pieniądze — straci zaufanie użytkowników. W świecie AI, gdzie konkurencja rośnie każdego dnia, zaufanie to waluta twardsza niż dane.
Sprawa dopiero się zaczyna. Sąd musi zdecydować, czy pozew zostanie dopuszczony jako zbiorowy (co oznaczałoby miliony potencjalnych powodów). Potem przyjdzie czas na dowody — logi serwerów, umowy z Google i Meta, wewnętrzne maile dokumentujące decyzje o udostępnianiu danych. To może potrwać lata.
Jedno jest pewne: użytkownicy AI zaczynają rozumieć, że „prywatność” w narzędziach cyfrowych to często tylko marketing. Prawdziwa prywatność wymaga transparentności, audytów zewnętrznych i regulacji, które firmom nie pozwolą na łamanie obietnic bez konsekwencji. Perplexity może być pierwszym przypadkiem — na pewno nie ostatnim.
Na podstawie: Ars Technica
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar