Obrazy AI
Obrazy AI · 4 min czytania · 3 stycznia 2026

Grok Muska generuje obrazy seksualizujące dzieci. FBI wszczęło śledztwo

Grok Muska generuje obrazy seksualizujące dzieci. FBI wszczęło śledztwo

Źródło: Link

Kurs AI Evolution

118 lekcji od zera do eksperta. Bez kodowania.

Sprawdź kurs →

Powiązane tematy

Grok – chatbot Elona Muska – wygenerował obrazy seksualizujące dzieci. FBI wszczęło śledztwo.

I nie, to nie clickbait.

Problem wyszedł na jaw w platformie X (dawniej Twitter), gdzie Grok działa jako zintegrowane narzędzie AI. Użytkownicy odkryli, że system reaguje na prompty proszące o nielegalne treści. Zamiast je zablokować – po prostu generuje.

Gdzie są zabezpieczenia?

Większość modeli AI ma wbudowane filtry bezpieczeństwa. Analizują prompt przed wygenerowaniem obrazu. Niebezpieczne słowa kluczowe? Blokada.

Grok najwyraźniej ma te zabezpieczenia zbyt słabe.

Albo – co gorsze – celowo je poluzowano.

Musk od początku pozycjonował Groka jako najbardziej "wolnościowy" chatbot na rynku. Bez cenzury. Bez ograniczeń politycznej poprawności. Brzmi fajnie na papierze. W praktyce? Brak granic prowadzi też do braku ochrony przed nadużyciami.

To trochę jak dać każdemu klucze do samochodu i powiedzieć: jedźcie jak chcecie, zasad nie ma. Świetnie – dopóki ktoś nie wjedzie na chodnik pełen ludzi.

Edytor zdjęć pogarsza sprawę

X niedawno wprowadził edytor zdjęć oparty na AI. Pozwala modyfikować istniejące fotografie za pomocą poleceń tekstowych. Chcesz zmienić tło? Dodać obiekt? Usunąć osobę?

Wystarczy napisać.

Technologia sama w sobie nie jest zła. Problem w tym, że w połączeniu ze słabymi filtrami Groka staje się narzędziem do tworzenia nielegalnych materiałów z prawdziwych zdjęć. Wystarczy wrzucić zwykłe zdjęcie dziecka i wydać odpowiednie polecenie.

Eksperci od bezpieczeństwa dziecięcego biją na alarm. Organizacja National Center for Missing & Exploited Children (NCMEC) otrzymała już pierwsze zgłoszenia. Śledztwo prowadzi FBI.

Jak wygląda konkurencja?

ChatGPT od OpenAI blokuje takie prompty natychmiast. DALL-E 3 – generator obrazów tej samej firmy – ma wielowarstwowy system filtrów. Midjourney? Podobnie. Nawet Stable Diffusion w wersji publicznej ma zabezpieczenia.

Meta, testując swoje generatory AI w Instagramie i Facebooku, inwestuje miliony w zespoły moderacji i automatyczne blokady.

Grok wyróżnia się na tle konkurencji. Ale – cóż – nie w dobrym sensie.

Co mówi xAI?

Nic.

Do momentu publikacji tego tekstu xAI nie wydało oficjalnego oświadczenia. Musk nie skomentował sprawy na swoim koncie w X.

To nietypowe. Zwykle reaguje na kontrowersje w ciągu godzin – broniąc swoich decyzji albo atakując krytyków. Tym razem? Cisza.

Prawdopodobnie firma konsultuje się z prawnikami. I słusznie. Sprawa jest poważna. W USA tworzenie, dystrybucja i przechowywanie materiałów przedstawiających seksualne wykorzystanie dzieci to przestępstwo federalne. Wieloletnie więzienie.

Nawet jeśli obrazy są generowane przez AI i nie przedstawiają prawdziwych dzieci – prawo w wielu stanach traktuje je jako nielegalne.

To nie pierwszy raz

Generatory obrazów AI były już wcześniej wykorzystywane do nielegalnych celów. W 2025 roku podobne przypadki wykryto w społecznościach używających otwartych modeli – każdy może je pobrać i uruchomić na własnym komputerze.

Różnica?

Tamte modele działały w szarej strefie, na prywatnych serwerach. Grok działa w mainstreamowej platformie społecznościowej z setkami milionów użytkowników. Skala ryzyka jest nieporównywalnie większa.

Branża AI stoi przed dylematem: jak zbalansować wolność twórczą z odpowiedzialnością? Jak nie stłumić innowacji, ale chronić przed nadużyciami.

Część ekspertów proponuje regulacje na poziomie federalnym. Obowiązkowe audyty bezpieczeństwa przed uruchomieniem publicznym modelu. Certyfikacje filtrów. Odpowiedzialność prawna firm za treści generowane przez ich systemy.

Inni ostrzegają: to zabije małe startupy, które nie mają budżetów na compliance. Da przewagę gigantom takim jak Google czy Microsoft.

Co teraz?

Śledztwo FBI może potrwać miesiące. Jeśli potwierdzi się, że xAI świadomie zaniedbało zabezpieczenia – firma może stanąć przed sądem.

W najlepszym scenariuszu Musk naprawi filtry i wprowadzi ostrzejszą moderację. W najgorszym? X zostanie zablokowany w części krajów, a xAI straci dostęp do rynków regulowanych.

Dla użytkowników to sygnał ostrzegawczy. Nie każde narzędzie AI jest bezpieczne. Nie każda firma traktuje ochronę użytkowników priorytetowo.

I nie – "wolność słowa" nie jest usprawiedliwieniem dla generowania treści wykorzystujących dzieci. Nigdy nie było i nie będzie.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.