X pozwala blokować Groka przed edycją zdjęć. Ale jest haczyk
Źródło: Link
Źródło: Link
X właśnie wprowadził nową funkcję ochrony prywatności. Możesz teraz zablokować Groka – chatbota należącego do xAI Elona Muska – przed edycją Twoich zdjęć. Dobra wiadomość? Teoretycznie tak. Praktyczna? Niekoniecznie.
Problem tkwi w drobnym druku. Toggle działa tylko wtedy, gdy ktoś oznaczy @Grok w poście z Twoim zdjęciem. Jeśli użytkownik po prostu wrzuci Twoje zdjęcie do Groka bez oznaczenia – a tak robi większość ludzi – Twoja blokada nie zadziała. Bot nadal może manipulować Twoim wizerunkiem.
Według informacji przekazanych przez Social Media Today, X dodał przełącznik w ustawieniach prywatności. Znajdziesz go w sekcji dotyczącej danych i personalizacji. Po włączeniu teoretycznie blokujesz Grokowi dostęp do edycji Twoich zdjęć.
Kluczowe słowo: teoretycznie.
Funkcja działa wyłącznie Jeśli chodzi o publicznych interakcji z botem. Czyli gdy ktoś w poście na X oznaczy @Grok i doda Twoje zdjęcie. W takiej sytuacji Grok faktycznie nie będzie mógł go przetworzyć. Dostaniesz powiadomienie, że użytkownik próbował użyć Twojego zdjęcia, a bot odmówił współpracy.
Problem? To marginalny przypadek użycia. Większość osób korzysta z Groka przez bezpośredni interfejs chatbota – wrzuca tam zdjęcia, prosi o edycję, generuje warianty. Bez oznaczania bota w publicznym poście. I tam Twoja blokada nie działa.
Grok – podobnie jak inne zaawansowane modele AI – potrafi edytować obrazy. Może zmieniać tła, dodawać elementy, modyfikować wygląd osób, generować deepfake'i. Wszystko to w kilka sekund.
Jeśli Twoje zdjęcia są publicznie dostępne na X, każdy może je pobrać i wrzucić do Groka. Bez Twojej wiedzy. Bez oznaczenia. Bez możliwości zablokowania.
To nie jest tylko kwestia technicznych ograniczeń jednej funkcji. To wzorzec, który widzimy w całej branży social media: pozorna kontrola nad prywatnością.
Platformy dają Ci przełącznik. Czujesz się bezpieczniej. Masz wrażenie, że kontrolujesz swoje dane. Tymczasem w praktyce nic się nie zmienia, bo funkcja działa tylko w wąskim, rzadko występującym scenariuszu.
X nie jest tu wyjątkiem. Grok już wcześniej budził kontrowersje – Musk wielokrotnie luzował mu ograniczenia, pozwalając na generowanie treści, które inne platformy blokują. Teraz dostajemy narzędzie ochrony, które chroni tylko w teorii.
Nowa opcja blokowania jest domyślnie wyłączona. Musisz ją aktywnie włączyć. Większość użytkowników tego nie zrobi – bo nie będzie wiedziała, że taka opcja istnieje.
To klasyczny dark pattern. Platforma może powiedzieć: "Daliśmy użytkownikom wybór". Wie jednak, że 95% z nich nigdy nie zmieni domyślnych ustawień. Efekt? Grok ma dostęp do ogromnej biblioteki zdjęć, które może przetwarzać bez ograniczeń.
Jeśli zależy Ci na ochronie swoich zdjęć przed manipulacją przez AI, masz kilka opcji. Żadna nie jest idealna, ale każda działa lepiej niż przełącznik od X.
Opcja pierwsza: Nie wrzucaj zdjęć na X. Radykalne? Tak. Skuteczne? Absolutnie. Jeśli zdjęcia nie są na platformie, Grok nie ma do nich dostępu przez interfejs X.
Opcja druga: Ustaw konto na prywatne. Ograniczysz dostęp do swoich treści tylko do obserwujących. To nie chroni w 100% (obserwujący nadal mogą pobrać zdjęcia), ale znacznie zmniejsza ryzyko.
Opcja trzecia: Dodawaj watermarki. Nie zatrzyma to AI przed edycją, ale przynajmniej utrudni bezkarną manipulację i dystrybucję zmienionych wersji.
Opcja czwarta: Włącz ten nowy przełącznik. Tak, działa tylko w ograniczonym zakresie. Lepsze to jednak niż nic. Znajdziesz go w Settings → Privacy and Safety → Data sharing and personalization.
Problem wykracza poza X i Groka. Wszystkie duże platformy AI trenują swoje modele na danych użytkowników. Anthropic, OpenAI, Google – każdy z nich ma w regulaminach zapisy o wykorzystaniu treści do rozwoju swoich systemów.
Różnica? Niektóre firmy są w tym transparentne. Inne ukrywają to w 47-stronicowych regulaminach, które nikt nie czyta. X należy do tej drugiej kategorii.
W Polsce – podobnie jak w całej Unii Europejskiej – obowiązuje RODO. Teoretycznie daje Ci kontrolę nad danymi osobowymi, w tym wizerunkiem. Praktycznie? Platformy social media działają w szarej strefie, argumentując, że publikując zdjęcia publicznie, wyrażasz zgodę na ich przetwarzanie.
Czy to legalne? Prawnie niejednoznaczne. Czy to etyczne? To już inna sprawa.
Nowa funkcja X to symptom większego problemu. Platformy dają nam iluzję kontroli, podczas gdy faktyczna władza nad naszymi danymi pozostaje po ich stronie.
Toggle, który działa tylko gdy ktoś oznaczy @Grok? To nie jest ochrona prywatności. To PR. Sposób na uspokojenie użytkowników bez faktycznej zmiany w dostępie AI do ich treści.
Jeśli faktycznie chcesz chronić swoje zdjęcia przed manipulacją przez AI, musisz działać na poziomie fundamentalnym: kontrolować, co publikujesz i gdzie. Przełączniki w ustawieniach? Mogą pomóc. Nie są jednak rozwiązaniem.
X wprowadził funkcję. Użytkownicy dostali powiadomienie. Większość poczuła się bezpieczniej. Tymczasem Grok nadal ma dostęp do milionów zdjęć. I będzie je przetwarzał dokładnie tak, jak do tej pory. Tylko teraz platforma może powiedzieć: "Przecież daliśmy wam wybór".
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar