Wideo AI
Wideo AI · 6 min czytania · 15 kwietnia 2026

Apple groziło Grokowi banem. Musk zmienił zasady w 24 godziny

Apple groziło Grokowi banem. Musk zmienił zasady w 24 godziny

Źródło: Link

Kurs AI Evolution

118 lekcji od zera do eksperta. Bez kodowania.

Sprawdź kurs →

Powiązane tematy

  • Apple zagroziło w styczniu 2025 usunięciem Groka z App Store z powodu nieskutecznej moderacji deepfake'owych treści pornograficznych
  • Musk wprowadził zmiany dopiero po interwencji Apple – mimo że problem narastał od miesięcy
  • Grok 4.20 Beta nadal ma słabsze zabezpieczenia niż konkurencja, ale Apple zaakceptowało minimalne poprawki
  • Sprawa pokazuje, że giganci technologiczni reagują tylko na presję innych gigantów, nie użytkowników

Szefowa HR dużej firmy rekrutacyjnej opowiadała mi niedawno, jak ktoś przysłał jej deepfake'owe zdjęcie z jej twarzą. Wygenerowane w Groku. Zgłosiła to X. Odpowiedzi nie dostała przez trzy tygodnie.

Apple potrzebowało jednego telefonu, żeby Musk zareagował w 24 godziny.

Kiedy Apple puka do drzwi, Musk otwiera natychmiast

W styczniu 2025 roku Apple skontaktowało się z X (dawniej Twitter) z ultimatum: albo Grok przestanie generować niekonsensualny deepfake'owy content pornograficzny, albo aplikacja znika z App Store. Według NBC News, które dotarło do wewnętrznych dokumentów, to była cichutka groźba. Bez publicznych oświadczeń. Bez medialnego rozgłosu.

Musk zareagował błyskawicznie. W ciągu doby wprowadził zmiany w Groku 4.20 Beta, które miały ograniczyć generowanie takich treści.

Problem? Te same deepfake'i zalewały X od miesięcy. Użytkownicy zgłaszali je setkami. Dziennikarze pisali artykuły. Organizacje zajmujące się prawami kobiet biły na alarm.

Cisza.

Dopiero gdy Apple – kontrolujące dostęp do miliardów użytkowników iPhone'ów – powiedziało "dość", Musk znalazł czas na moderację. W świecie AI nie rządzą użytkownicy ani etyka. Rządzi dostęp do dystrybucji.

Gdy Apple grozi banem, nawet Musk słucha
Gdy Apple grozi banem, nawet Musk słucha

Grok 4.20 Beta – zabezpieczenia na papierze

Grok 4.20 Beta to najnowszy model xAI, który teoretycznie współpracuje z czterema agentami AI jednocześnie. W praktyce? Ma jedne z najsłabszych zabezpieczeń wśród głównych modeli generatywnych.

Porównajmy to z konkurencją (stan na marzec 2026):

  • Claude Opus 4.6 (Anthropic) – odmawia generowania obrazów osób bez wyraźnej zgody, nawet celebrytów
  • Gemini 3 Pro (Google) – blokuje prompty zawierające imiona i nazwiska Jeśli chodzi o seksualnym
  • GPT-5 (OpenAI) – adaptive routing wykrywa próby obejścia zabezpieczeń i eskaluje do bardziej restrykcyjnego modelu
  • Grok 4.20 Beta – po zmianach z stycznia nadal pozwala na generowanie "artystycznych aktów" z rozpoznawalnymi twarzami (jeśli użytkownik "potwierdzi zgodę")

Widzisz różnicę?

Grok pyta użytkownika, czy ma zgodę. Nie weryfikuje tego. Po prostu pyta. Bar, który pyta 15-latka "Masz 18 lat?" i przyjmuje "tak" za dowód tożsamości.

Co dokładnie zmieniło się po interwencji Apple

Według dokumentacji xAI z lutego 2026, Grok 4.20 Beta wprowadził trzy główne zmiany:

  • Blokowanie promptów zawierających pełne imiona i nazwiska Jeśli chodzi o seksualnym (ale tylko pełne – samo imię lub nazwisko przechodzi)
  • Dodanie checkboxa "Potwierdzam zgodę osoby na obrazie" (bez weryfikacji)
  • Watermarking wygenerowanych obrazów (niewidoczny dla oka, wykrywalny algorytmicznie)

Apple uznało to za wystarczające. Grok został w App Store. Deepfake'i? Nadal tam są. Tylko teraz mają niewidzialny watermark, który... nikt nie sprawdza, bo nie ma centralnej bazy do weryfikacji.

Minimalne zabezpieczenia wystarczyły, by Apple odpuściło
Minimalne zabezpieczenia wystarczyły, by Apple odpuściło

Dlaczego Apple w ogóle zareagowało

Apple ma w swoich wytycznych App Store jasny punkt: aplikacje nie mogą "ułatwiać generowania nielegalnych lub szkodliwych treści". Deepfake'owy content pornograficzny bez zgody osoby jest nielegalny w większości krajów. W Polsce od 2023 roku. W UE od AI Act z 2024.

Problem? Apple rzadko egzekwuje te zasady proaktywnie. Zwykle czeka na medialny skandal lub presję regulatorów. W przypadku Groka było inaczej – NBC News dotarło do informacji, że Apple działało po wewnętrznym raporcie zespołu ds. bezpieczeństwa, który wykrył wzrost zgłoszeń o 340% w grudniu 2024.

340%. W jeden miesiąc.

To nie była decyzja etyczna. To była decyzja biznesowa. Apple nie chciało być platformą, która hostuje narzędzie do masowej produkcji deepfake'owego porno. Nie z powodu moralności – z powodu ryzyka regulacyjnego i wizerunkowego.

Polska perspektywa: AI Act i odpowiedzialność platform

AI Act, który wszedł w życie w całej UE w 2024 roku, klasyfikuje systemy generujące deepfake'i jako "wysokie ryzyko". Oznacza to obowiązek weryfikacji zgody, transparentności i możliwości odwołania się.

Grok 4.20 Beta spełnia te wymogi... na papierze. W praktyce checkbox "mam zgodę" to nie jest weryfikacja.

Polskie firmy używające Groka (np. do generowania materiałów marketingowych) powinny wiedzieć: jeśli wygenerujesz obraz osoby bez jej zgody i użyjesz go komercyjnie, odpowiadasz Ty, nie xAI. Grok ma w ToS zapis, że użytkownik ponosi pełną odpowiedzialność za zgodność z prawem. Watermark nic tu nie zmienia.

AI Act wymaga weryfikacji zgody – checkbox to za mało
AI Act wymaga weryfikacji zgody – checkbox to za mało

Co to mówi o moderacji AI w 2026 roku

Ta historia pokazuje trzy rzeczy.

Po pierwsze – platformy AI reagują na presję biznesową, nie społeczną. Tysiące zgłoszeń użytkowników? Ignorowane. Jeden telefon od Apple? Zmiany w 24 godziny.

Po drugie – zabezpieczenia AI to często teatr. Grok dodał checkbox i watermark. Techniczne rozwiązanie problemu społecznego. Danie kasku osobie spadającej z dachu – formalnie coś zrobiłeś, merytorycznie nic się nie zmieniło.

Po trzecie – gatekeepers jak Apple mają realną władzę nad AI. Nie regulatorzy, nie użytkownicy. Firmy kontrolujące dystrybucję. Apple może zbanować Groka z dnia na dzień i xAI straci dostęp do miliarda użytkowników iOS. To zmienia wszystko.

Jeśli pracujesz z AI w firmie, nie ufaj zabezpieczeniom na słowo. Sprawdź, co model faktycznie blokuje. Przetestuj go. Zapytaj o imię celebryty Zapytaj o polityka. Zapytaj o siebie. Zobaczysz, które modele mają realne zabezpieczenia, a które tylko checkbox.

FAQ

Czy Grok nadal generuje deepfake'owy content po zmianach?

Tak, ale wymaga potwierdzenia "zgody" przez użytkownika. Nie ma weryfikacji tej zgody – to tylko checkbox. Watermark jest dodawany, ale nie ma centralnej bazy do jego weryfikacji.

Czy Apple może zbanować aplikację z AI bez ostrzeżenia?

Tak. Wytyczne App Store dają Apple prawo do natychmiastowego usunięcia aplikacji naruszającej zasady. W praktyce Apple zwykle daje 24-48 godzin na poprawki, ale nie jest do tego zobowiązane.

Czy używanie Groka do generowania obrazów osób jest legalne w Polsce?

Zależy. Jeśli masz zgodę osoby – tak. Jeśli nie masz – naruszasz prawo do wizerunku (art. 81 Prawa autorskiego) i potencjalnie AI Act. Odpowiedzialność ponosi użytkownik, nie xAI.

Na podstawie: The Verge AI, NBC News (raport z stycznia 2025), dokumentacja xAI

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od 18 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.