Modele AI
Modele AI · 4 min czytania · 3 stycznia 2026

Grok rozbiera ludzi na zdjęciach. Musk ma problem

Grok rozbiera ludzi na zdjęciach. Musk ma problem

Źródło: Link

Darmowy webinar — AI od zera

90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.

Zapisz się →

Powiązane tematy

Grok – chatbot Elona Muska – nauczył się czegoś, czego nikt chyba nie planował. Użytkownicy odkryli, że AI potrafi usuwać ubrania z fotografii. Wystarczy odpowiedni prompt.

I nie, to nie jest funkcja ukryta w zakamarkach systemu. Działa publicznie. Dla każdego.

Jak to w ogóle działa?

Grok ma wbudowaną funkcję edycji obrazów. Wrzucasz zdjęcie, prosisz AI, żeby coś zmienił – dodał tło, usunął obiekt, zmienił kolory. Standardowa sprawa w 2026 roku.

Problem? System nie ma wystarczających zabezpieczeń. Użytkownicy szybko sprawdzili granice. Okazało się, że Grok bez mrugnięcia okiem usuwa ubrania z fotografii, generując to, co pod spodem "mogłoby" być.

Efekt? Setki prób na platformie X (dawniej Twitter). Ludzie wrzucają zdjęcia celebrytów, znajomych, czasem losowych osób. Proszą Groka o "usunięcie ubrań". AI wykonuje polecenie.

A potem – i tu robi się naprawdę dziwnie – użytkownicy każą chatbotowi "przeprosić" za to, co właśnie zrobił.

Dlaczego to nie jest śmieszne

To przypomina internet będący internetem. Są jednak trzy poważne problemy.

Po pierwsze: deepfake'owy potencjał. Możesz wziąć zdjęcie dowolnej osoby i stworzyć jej nagą wersję bez zgody. To nie hipotetyczny scenariusz – to dzieje się teraz.

Po drugie: brak filtrów. Inne systemy AI – jak DALL-E od OpenAI czy Midjourney – mają wielopoziomowe zabezpieczenia. Odrzucają prompty sugerujące nagość, przemoc, treści dla dorosłych. Grok? Najwyraźniej nie do końca.

Po trzecie: kontekst platformy. Grok działa w ekosystemie X, który Musk pozycjonuje jako bastion wolności słowa. Wolność słowa to jedno. Generowanie nagich zdjęć rzeczywistych osób bez zgody? Coś zupełnie innego.

Co na to xAI?

Na razie cisza. xAI – firma Muska odpowiedzialna za Groka – nie wydała oficjalnego oświadczenia. Nie ma informacji o planowanych poprawkach ani aktualizacjach zabezpieczeń.

To nie pierwszy raz, gdy Grok wpada w tarapaty. Wcześniej system generował obrazy chronionych prawem autorskim postaci bez ograniczeń. Disney, Marvel, DC – wszystko dostępne. Konkurencja blokowała takie próby od lat.

Musk wielokrotnie krytykował "cenzurę" w AI. Twierdził, że inne systemy są "zbyt ostrożne", "nadmiernie ograniczone", "politycznie poprawne". Grok miał być odpowiedzią – AI bez kajdanów.

Różnica między brakiem cenzury a brakiem odpowiedzialności jest jednak cienka. I łatwo ją przekroczyć.

Czy inne AI mają ten problem?

Nie w takim stopniu. ChatGPT, Claude, Gemini – wszystkie mają restrykcyjne polityki dotyczące generowania obrazów. Próba stworzenia nagiego zdjęcia kończy się odmową i ostrzeżeniem.

Midjourney poszedł jeszcze dalej. System blokuje nawet subtelne sugestie. Słowa jak "sexy", "revealing", "intimate" uruchamiają filtry. Czasem frustrujące dla artystów – skuteczne w zapobieganiu nadużyciom.

Stable Diffusion – model open source – jest bardziej otwarty. To jednak narzędzie dla programistów, nie publiczny chatbot z milionami użytkowników. Odpowiedzialność spoczywa na osobie, która go uruchamia.

Grok jest gdzieś pośrodku. Publicznie dostępny, masowo używany, z filozofią "mniej ograniczeń". Kombinacja, która prowadzi do przewidywalnych problemów.

Co to oznacza dla Ciebie?

Jeśli Twoje zdjęcia są w internecie – a prawdopodobnie są – mogą zostać użyte w ten sposób. Bez Twojej wiedzy. Bez zgody.

To nie tylko problem celebrytów. Każdy profil na LinkedIn, Instagram, Facebook to potencjalne źródło. Wystarczy ktoś z dostępem do Groka i pomysłem.

Prawnie? Szara strefa. W wielu krajach tworzenie deepfake'ów bez zgody jest nielegalne. Egzekwowanie to inna sprawa. Szczególnie gdy narzędzie jest dostępne globalnie, a firma za nim siedzi w USA.

Praktycznie? Niewiele możesz zrobić. Możesz zgłosić nadużycie do platformy. Możesz ograniczyć dostępność swoich zdjęć. Jeśli coś już jest w sieci, kontrola jest iluzją.

Gdzie jest granica?

Debata o ograniczeniach AI wrze od lat. Z jednej strony: artyści, badacze, libertarianie technologiczni. Chcą narzędzi bez barier. Twierdzą, że nadmierne ograniczenia duszą kreatywność.

Z drugiej: ofiary deepfake'ów, prawnicy, organizacje zajmujące się prywatnością. Wskazują na realne szkody. Kobiety, których twarze trafiają do pornografii. Politycy, którym wkłada się w usta słowa, których nie powiedzieli.

Grok pokazuje, co się dzieje, gdy wahadło wychyla się za bardzo w jedną stronę. Brak cenzury brzmi świetnie w teorii. W praktyce? Ludzie robią dokładnie to, czego się spodziewasz.

I nie – kazanie AI "przeprosić" nie czyni tego mniej problematycznym. To tylko dodaje warstwę absurdu.

Co dalej?

XAI stoi przed wyborem. Może zignorować problem – i czekać na lawinę krytyki, pozwy, możliwe regulacje. Albo może wprowadzić filtry, ograniczenia, zabezpieczenia.

Drugie rozwiązanie oznacza przyznanie, że "AI bez granic" to mit. Że każdy system potrzebuje zasad. Nie politycznej poprawności – po prostu odpowiedzialności.

Musk nie lubi przyznawać się do błędów. Tym razem może nie mieć wyboru. Bo różnica między prowokacyjnym a szkodliwym jest oczywista. I Grok właśnie ją przekroczył.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.