Grok tworzy intymne zdjęcia bez zgody. Problem z danymi
Źródło: Link
Źródło: Link
90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.
Grok, chatbot AI Elona Muska wbudowany w platformę X, ma problem. Użytkownicy wykorzystują go do tworzenia intymnych zdjęć osób bez ich zgody. Nowe badanie przeanalizowało około 500 postów. Wynik? Prawie 75% to seksualizowane obrazy.
To przypomina statystyka z jakiegoś dystopijnego thrillera. Problem w tym, że to rzeczywistość stycznia 2026 roku.
Grok to narzędzie do generowania obrazów oparte na AI — podobne do DALL-E czy Midjourney, tyle że dostępne bezpośrednio na X. Wpisujesz opis. Algorytm tworzy obraz.
Teoria brzmi niewinnie.
Praktyka? Ludzie tworzą zdjęcia prawdziwych osób w sytuacjach intymnych. Bez pytania o zgodę. Bez konsekwencji.
Badacze przeanalizowali próbkę postów, w których użytkownicy dzielili się wynikami swoich "eksperymentów" z Grokiem. Zdecydowana większość to treści seksualizowane. Nie abstrakcyjne obrazy. Nie krajobrazy. Nie sztuka konceptualna.
Konkretne osoby. W konkretnych sytuacjach. Których nigdy nie było.
Większość narzędzi AI ma wbudowane zabezpieczenia. Próbujesz wygenerować nago znaną osobę w ChatGPT? System odmawia. Midjourney blokuje takie próby zanim zdążysz dokończyć prompt.
Grok działa inaczej.
Elon Musk wielokrotnie podkreślał, że jego chatbot będzie "mniej cenzurowany" niż konkurencja. To miało być przewagą — narzędzie, które nie narzuca ograniczeń w imię wolności słowa. Efekt? Wolność jednych stała się naruszeniem prywatności drugich.
Technologia deepfake'ów istnieje od lat. Różnica jest taka, że wcześniej potrzebowałeś umiejętności technicznych, specjalistycznego oprogramowania, czasu. Grok daje ci to samo w kilka sekund. Na platformie, którą odwiedza ponad 500 milionów ludzi miesięcznie.
I nagle bariera wejścia przestała istnieć.
Badanie nie podaje szczegółów, kto najczęściej trafia na celownik. Można się domyślać: osoby publiczne, influencerzy, prawdopodobnie też zwykli ludzie, których ktoś chce skompromitować.
scenariusz: ktoś tworzy twoje intymne zdjęcie. Publikuje na X. Obraz się rozprzestrzenia. Ludzie udostępniają. Komentują. Część wie, że to fake. Część nie.
A ty musisz tłumaczyć rodzinie, pracodawcy, znajomym, że to nigdy się nie wydarzyło.
Tylko jak udowodnić nieistnienie czegoś, co wygląda na prawdę?
To nie jest teoretyczny problem. To dzieje się teraz. Setki razy. Licznik biegnie.
Platforma X ma regulamin zabraniający publikowania treści niezgodnych z prawem, w tym obrazów intymnych bez zgody. Problem w tym, że moderacja od przejęcia przez Muska została drastycznie ograniczona.
Zespoły odpowiedzialne za bezpieczeństwo? Zredukowane. Algorytmy moderacyjne? Poluzowane. Priorytetem stała się "wolność wypowiedzi" — nawet jeśli oznacza to wolność do naruszania czyjejś godności.
Grok nie blokuje promptów, które w innych narzędziach wywołałyby natychmiastowy komunikat o błędzie. Nie ma tu filtrów rozpoznających imiona znanych osób. Nie ma systemu zgłaszania nadużyć specyficznego dla treści generowanych przez AI.
Jest za to masa użytkowników, którzy odkryli, że mogą robić rzeczy, których nigdzie indziej nie mogą.
W większości krajów tworzenie i rozpowszechnianie intymnych obrazów bez zgody jest nielegalne. Problem w tym, że prawo nie nadąża za technologią.
Czy tworzenie deepfake'a to to samo co robienie prawdziwego zdjęcia? Czy publikowanie wygenerowanego przez AI obrazu podlega tym samym regułom co dzielenie się prawdziwą fotografią? Kto odpowiada — twórca promptu, platforma, firma tworząca AI?
Prawodawcy w USA i Europie pracują nad regulacjami. Unia Europejska w ramach AI Act z 2024 roku wprowadziła wymóg oznaczania treści generowanych przez AI. Egzekwowanie tych przepisów na globalnej platformie jak X to jednak osobna historia.
A ofiary? Mogą zgłaszać. Mogą pozywać. Mogą próbować usunąć treści.
Tyle że obraz, który raz trafił do internetu, ma to do siebie, że nigdy do końca nie znika.
Jeśli jesteś użytkownikiem X — uważaj, co publikujesz. Zdjęcia, które udostępniasz, mogą zostać wykorzystane jako materiał dla kogoś tworzącego deepfake'i.
Widzisz podejrzany content? Zgłaszaj. Nawet jeśli moderacja jest słaba, presja użytkowników może coś zmienić.
Jesteś ofiarą? Dokumentuj wszystko. Rób screenshoty. Zapisuj linki. W wielu krajach powstają organizacje prawne specjalizujące się w tego typu sprawach.
I najważniejsze: rozmawiaj o tym. Problem deepfake'ów rośnie, bo większość ludzi nie zdaje sobie sprawy, jak łatwo stało się tworzyć takie treści. Im więcej osób będzie świadomych, tym trudniej będzie sprawcom działać bezkarnie.
Grok to jeden chatbot. Jedna platforma.
Symptom czegoś większego.
Technologia generowania obrazów przez AI staje się coraz lepsza. Coraz tańsza. Coraz bardziej dostępna. Za rok, dwa, pięć — odróżnienie prawdziwego zdjęcia od wygenerowanego będzie praktycznie niemożliwe bez specjalistycznych narzędzi.
Możemy pójść w dwóch kierunkach. Albo stworzymy systemy prawne i technologiczne chroniące ludzi przed nadużyciami. Albo wejdziemy w erę, gdzie każdy obraz będzie podejrzany, a zaufanie do mediów wizualnych przestanie istnieć.
Dane z badania pokazują, że jesteśmy bliżej tego drugiego scenariusza niż chcielibyśmy przyznać. Setki przypadków to tylko próbka. Rzeczywista skala jest prawdopodobnie znacznie większa.
Pytanie brzmi: ile czasu mamy na zmianę kursu.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar