Grok rozbiera ludzi na zdjęciach. Musk ma problem
Źródło: Link
Źródło: Link
90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.
Grok – chatbot Elona Muska – nauczył się czegoś, czego nikt chyba nie planował. Użytkownicy odkryli, że AI potrafi usuwać ubrania z fotografii. Wystarczy odpowiedni prompt.
I nie, to nie jest funkcja ukryta w zakamarkach systemu. Działa publicznie. Dla każdego.
Grok ma wbudowaną funkcję edycji obrazów. Wrzucasz zdjęcie, prosisz AI, żeby coś zmienił – dodał tło, usunął obiekt, zmienił kolory. Standardowa sprawa w 2026 roku.
Problem? System nie ma wystarczających zabezpieczeń. Użytkownicy szybko sprawdzili granice. Okazało się, że Grok bez mrugnięcia okiem usuwa ubrania z fotografii, generując to, co pod spodem "mogłoby" być.
Efekt? Setki prób na platformie X (dawniej Twitter). Ludzie wrzucają zdjęcia celebrytów, znajomych, czasem losowych osób. Proszą Groka o "usunięcie ubrań". AI wykonuje polecenie.
A potem – i tu robi się naprawdę dziwnie – użytkownicy każą chatbotowi "przeprosić" za to, co właśnie zrobił.
To przypomina internet będący internetem. Są jednak trzy poważne problemy.
Po pierwsze: deepfake'owy potencjał. Możesz wziąć zdjęcie dowolnej osoby i stworzyć jej nagą wersję bez zgody. To nie hipotetyczny scenariusz – to dzieje się teraz.
Po drugie: brak filtrów. Inne systemy AI – jak DALL-E od OpenAI czy Midjourney – mają wielopoziomowe zabezpieczenia. Odrzucają prompty sugerujące nagość, przemoc, treści dla dorosłych. Grok? Najwyraźniej nie do końca.
Po trzecie: kontekst platformy. Grok działa w ekosystemie X, który Musk pozycjonuje jako bastion wolności słowa. Wolność słowa to jedno. Generowanie nagich zdjęć rzeczywistych osób bez zgody? Coś zupełnie innego.
Na razie cisza. xAI – firma Muska odpowiedzialna za Groka – nie wydała oficjalnego oświadczenia. Nie ma informacji o planowanych poprawkach ani aktualizacjach zabezpieczeń.
To nie pierwszy raz, gdy Grok wpada w tarapaty. Wcześniej system generował obrazy chronionych prawem autorskim postaci bez ograniczeń. Disney, Marvel, DC – wszystko dostępne. Konkurencja blokowała takie próby od lat.
Musk wielokrotnie krytykował "cenzurę" w AI. Twierdził, że inne systemy są "zbyt ostrożne", "nadmiernie ograniczone", "politycznie poprawne". Grok miał być odpowiedzią – AI bez kajdanów.
Różnica między brakiem cenzury a brakiem odpowiedzialności jest jednak cienka. I łatwo ją przekroczyć.
Nie w takim stopniu. ChatGPT, Claude, Gemini – wszystkie mają restrykcyjne polityki dotyczące generowania obrazów. Próba stworzenia nagiego zdjęcia kończy się odmową i ostrzeżeniem.
Midjourney poszedł jeszcze dalej. System blokuje nawet subtelne sugestie. Słowa jak "sexy", "revealing", "intimate" uruchamiają filtry. Czasem frustrujące dla artystów – skuteczne w zapobieganiu nadużyciom.
Stable Diffusion – model open source – jest bardziej otwarty. To jednak narzędzie dla programistów, nie publiczny chatbot z milionami użytkowników. Odpowiedzialność spoczywa na osobie, która go uruchamia.
Grok jest gdzieś pośrodku. Publicznie dostępny, masowo używany, z filozofią "mniej ograniczeń". Kombinacja, która prowadzi do przewidywalnych problemów.
Jeśli Twoje zdjęcia są w internecie – a prawdopodobnie są – mogą zostać użyte w ten sposób. Bez Twojej wiedzy. Bez zgody.
To nie tylko problem celebrytów. Każdy profil na LinkedIn, Instagram, Facebook to potencjalne źródło. Wystarczy ktoś z dostępem do Groka i pomysłem.
Prawnie? Szara strefa. W wielu krajach tworzenie deepfake'ów bez zgody jest nielegalne. Egzekwowanie to inna sprawa. Szczególnie gdy narzędzie jest dostępne globalnie, a firma za nim siedzi w USA.
Praktycznie? Niewiele możesz zrobić. Możesz zgłosić nadużycie do platformy. Możesz ograniczyć dostępność swoich zdjęć. Jeśli coś już jest w sieci, kontrola jest iluzją.
Debata o ograniczeniach AI wrze od lat. Z jednej strony: artyści, badacze, libertarianie technologiczni. Chcą narzędzi bez barier. Twierdzą, że nadmierne ograniczenia duszą kreatywność.
Z drugiej: ofiary deepfake'ów, prawnicy, organizacje zajmujące się prywatnością. Wskazują na realne szkody. Kobiety, których twarze trafiają do pornografii. Politycy, którym wkłada się w usta słowa, których nie powiedzieli.
Grok pokazuje, co się dzieje, gdy wahadło wychyla się za bardzo w jedną stronę. Brak cenzury brzmi świetnie w teorii. W praktyce? Ludzie robią dokładnie to, czego się spodziewasz.
I nie – kazanie AI "przeprosić" nie czyni tego mniej problematycznym. To tylko dodaje warstwę absurdu.
XAI stoi przed wyborem. Może zignorować problem – i czekać na lawinę krytyki, pozwy, możliwe regulacje. Albo może wprowadzić filtry, ograniczenia, zabezpieczenia.
Drugie rozwiązanie oznacza przyznanie, że "AI bez granic" to mit. Że każdy system potrzebuje zasad. Nie politycznej poprawności – po prostu odpowiedzialności.
Musk nie lubi przyznawać się do błędów. Tym razem może nie mieć wyboru. Bo różnica między prowokacyjnym a szkodliwym jest oczywista. I Grok właśnie ją przekroczył.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar