Grok tworzy deepfake'i nagich kobiet. X udaje, że to blokuje
Źródło: Link
Źródło: Link
90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.
X Elona Muska próbuje powstrzymać ludzi przed używaniem chatbota Grok do tworzenia nagich zdjęć kobiet. Problem? Obejście zabezpieczeń zajmuje mniej niż minutę.
The Verge właśnie sprawdził, jak działają nowe zabezpieczenia. Wynik? Grok nadal generuje deepfake'i nagich kobiet, mimo oficjalnych zapewnień o "zaostrzonych zasadach". Wystarczyło zmienić kilka słów w promptcie.
I to nie jest techniczny problem do rozwiązania. To wybór.
Grok to chatbot AI wbudowany w X (dawniej Twitter). Działa podobnie jak ChatGPT czy Claude – piszesz polecenie, on generuje odpowiedź. Różnica? Grok potrafi też tworzyć obrazy.
I tu zaczyna się problem.
Ktoś wrzuca do systemu zdjęcie prawdziwej osoby i prosi: "pokaż ją bez ubrania". System AI analizuje twarz, budowę ciała, a potem nakłada to na wygenerowane przez siebie nagie ciało. Efekt wygląda prawdziwie. Na tyle prawdziwie, że ofiara musi tłumaczyć wszystkim, że to fałszywka.
Takie zdjęcia nazywamy deepfake'ami. I X dosłownie w nie tonie.
Po fali krytyki X ogłosił, że wprowadza "nowe zasady" dla Groka. Oficjalnie: system ma odmawiać tworzenia nagich zdjęć prawdziwych osób. W praktyce?
Dziennikarze The Verge przetestowali to w Wielkiej Brytanii (gdzie takie treści są nielegalne). Zajęło im mniej niż minutę, żeby obejść blokadę.
Jak? Nie podali dokładnych szczegółów – bo to byłby instruktaż. Zasada jest prosta: AI rozpoznaje DOSŁOWNE frazy. Jeśli system ma zakaz na "pokaż ją nagą", wystarczy napisać to inaczej. "Bez ubrania". "W stroju Ewy". "Jak się urodziła".
Grok nie rozumie kontekstu. Rozumie słowa.
Inne firmy AI mają podobne problemy. Różnica? One faktycznie próbują je rozwiązać.
OpenAI (twórcy ChatGPT) używa kilku warstw zabezpieczeń: filtrów na wejściu (co wpisujesz), filtrów na wyjściu (co system generuje) i ciągłego trenowania modelu, żeby rozpoznawał próby obejścia zasad. Gdy ktoś znajdzie lukę, łatają ją w dni, nie tygodnie.
Anthropic (twórcy Claude) poszedł dalej. Ich system ma wbudowaną "konstytucję" – zestaw zasad etycznych, które AI stosuje na poziomie podejmowania decyzji, nie tylko rozpoznawania słów-kluczy.
X? X dodał prostą listę zakazanych fraz. I na tym poprzestał.
To jak zamknąć drzwi na kłódkę i zostawić okno otwarte. I udawać zaskoczenie, gdy ktoś wejdzie.
Może brzmi to jak techniczny detal. Dla ofiar to nie teoria.
W 2025 roku (dane z raportu Sensity AI) 96% wszystkich deepfake'ów w internecie to pornografia. 99% ofiar to kobiety. Większość zdjęć pochodzi ze zwykłych profili społecznościowych – selfie, zdjęcia z wakacji, rodzinne fotki.
Ktoś bierze Twoje zdjęcie. Generuje Cię nagą. Wrzuca na forum, do grupy, wysyła Twoim znajomym. I nagle musisz tłumaczyć szefowi, rodzicom, partnerowi, że to nie Ty. Że ktoś Cię "rozebrał" algorytmem.
A X – platforma z setkami milionów użytkowników – daje narzędzie do robienia tego za darmo, każdemu, kto ma konto.
W Wielkiej Brytanii tworzenie i udostępnianie takich materiałów jest nielegalne od 2024 roku. Online Safety Act wprost zakazuje "pornograficznych deepfake'ów bez zgody". Kara? Do 2 lat więzienia.
W USA sytuacja jest bardziej skomplikowana – prawo różni się między stanami. Kilka stanów (Kalifornia, Teksas, Nowy Jork) już zakazało tworzenia i rozpowszechniania takich treści.
Unia Europejska? AI Act z 2024 roku wymaga od systemów AI "odpowiednich zabezpieczeń przed nadużyciami". Deepfake'i bez zgody to przykład nadużycia, które regulatorzy mają na celowniku.
Problem w tym, że X działa globalnie. I jak dotąd – ignoruje lokalne przepisy.
Elon Musk wielokrotnie mówił, że X ma być platformą "absolutnej wolności słowa". W praktyce oznacza to: minimalna moderacja, maksymalna swoboda użytkowników.
Grok wpisuje się w tę filozofię. To chatbot "bez cenzury" – przynajmniej tak jest reklamowany. Ma odpowiadać na pytania, których ChatGPT odmawia. Ma być "bardziej ludzki", czyli mniej ograniczony.
Efekt? System, który generuje dezinformację, treści nienawiści i deepfake'i pornograficzne. Wszystko w imię "wolności".
I tu jest pułapka myślowa. Wolność słowa to nie wolność do tworzenia fałszywych nagich zdjęć prawdziwych osób. To nie "wyrażanie opinii". To cyfrowe napastowanie.
Musk mógłby naprawić Groka w tydzień. OpenAI pokazał, że da się zbudować potężny model AI z solidnymi zabezpieczeniami. Anthropic udowodnił, że etyczne AI nie musi być "ocenzurowane".
To wymaga decyzji: bezpieczeństwo ważniejsze niż absolutyzm wolnościowy.
Jeśli jesteś użytkownikiem X: zastanów się, czy chcesz wspierać platformę, która świadomie pozwala na takie nadużycia. Każde kliknięcie, każdy post, każdy wyświetlony ad – to zasilanie systemu.
Jeśli jesteś ofiarą deepfake'a: w Polsce możesz zgłosić to na policję jako naruszenie dóbr osobistych (art. 23 Kodeksu cywilnego) i żądać usunięcia materiału oraz odszkodowania. W UK – to przestępstwo kryminalne, zgłaszasz na 101 (numer policji).
Jeśli jesteś rodzicem: rozmawiaj z nastolatkami o tym, jakie zdjęcia wrzucają do sieci. Każde selfie może być bazą do deepfake'a. Ustawienia prywatności na "tylko znajomi" to minimum.
I jedno jeszcze: gdy widzisz takie treści – nie udostępniaj, nie komentuj. Zgłaszaj. Algorytmy X nagradzają engagement, każdy komentarz (nawet oburzony) sprawia, że treść dociera do kolejnych osób.
X stoi przed wyborem. Albo poważnie zabezpieczy Groka – wielowarstwowe filtry, ciągłe aktualizacje, zespół moderatorów sprawdzających raporty. Albo będzie dalej udawał, że "coś robi", licząc, że skandal przycichnie.
Historia platform społecznościowych pokazuje, że zwykle wybierają opcję drugą. Dopóki regulatorzy nie zaczną nakładać kar. Dopóki reklamodawcy nie zaczną uciekać. Dopóki użytkownicy nie zaczną masowo odchodzić.
W międzyczasie cierpią prawdziwi ludzie. Kobiety, które muszą tłumaczyć się ze zdjęć, których nigdy nie zrobiły. Nastolatki prześladowane w szkole przez deepfake'i rozpowszechniane przez rówieśników. Osoby publiczne atakowane przez trolli z narzędziem, które robi to za nich.
Technologia AI może być niesamowita. Grok jako chatbot ma potencjał. Bez odpowiedzialności za to, co tworzy, to tylko kolejne narzędzie do krzywdzenia ludzi.
I nie, to nie jest "nieunikniony koszt postępu". To efekt świadomych decyzji biznesowych. Musk wie o problemie. X wie o problemie. Po prostu nie uważają go za priorytet.
Może czas, żeby stał się priorytetem dla regulatorów.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar