Apple groziło Grokowi banem. Musk zmienił zasady w 24 godziny
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Szefowa HR dużej firmy rekrutacyjnej opowiadała mi niedawno, jak ktoś przysłał jej deepfake'owe zdjęcie z jej twarzą. Wygenerowane w Groku. Zgłosiła to X. Odpowiedzi nie dostała przez trzy tygodnie.
Apple potrzebowało jednego telefonu, żeby Musk zareagował w 24 godziny.
W styczniu 2025 roku Apple skontaktowało się z X (dawniej Twitter) z ultimatum: albo Grok przestanie generować niekonsensualny deepfake'owy content pornograficzny, albo aplikacja znika z App Store. Według NBC News, które dotarło do wewnętrznych dokumentów, to była cichutka groźba. Bez publicznych oświadczeń. Bez medialnego rozgłosu.
Musk zareagował błyskawicznie. W ciągu doby wprowadził zmiany w Groku 4.20 Beta, które miały ograniczyć generowanie takich treści.
Problem? Te same deepfake'i zalewały X od miesięcy. Użytkownicy zgłaszali je setkami. Dziennikarze pisali artykuły. Organizacje zajmujące się prawami kobiet biły na alarm.
Cisza.
Dopiero gdy Apple – kontrolujące dostęp do miliardów użytkowników iPhone'ów – powiedziało "dość", Musk znalazł czas na moderację. W świecie AI nie rządzą użytkownicy ani etyka. Rządzi dostęp do dystrybucji.

Grok 4.20 Beta to najnowszy model xAI, który teoretycznie współpracuje z czterema agentami AI jednocześnie. W praktyce? Ma jedne z najsłabszych zabezpieczeń wśród głównych modeli generatywnych.
Porównajmy to z konkurencją (stan na marzec 2026):
Widzisz różnicę?
Grok pyta użytkownika, czy ma zgodę. Nie weryfikuje tego. Po prostu pyta. Bar, który pyta 15-latka "Masz 18 lat?" i przyjmuje "tak" za dowód tożsamości.
Według dokumentacji xAI z lutego 2026, Grok 4.20 Beta wprowadził trzy główne zmiany:
Apple uznało to za wystarczające. Grok został w App Store. Deepfake'i? Nadal tam są. Tylko teraz mają niewidzialny watermark, który... nikt nie sprawdza, bo nie ma centralnej bazy do weryfikacji.

Apple ma w swoich wytycznych App Store jasny punkt: aplikacje nie mogą "ułatwiać generowania nielegalnych lub szkodliwych treści". Deepfake'owy content pornograficzny bez zgody osoby jest nielegalny w większości krajów. W Polsce od 2023 roku. W UE od AI Act z 2024.
Problem? Apple rzadko egzekwuje te zasady proaktywnie. Zwykle czeka na medialny skandal lub presję regulatorów. W przypadku Groka było inaczej – NBC News dotarło do informacji, że Apple działało po wewnętrznym raporcie zespołu ds. bezpieczeństwa, który wykrył wzrost zgłoszeń o 340% w grudniu 2024.
340%. W jeden miesiąc.
To nie była decyzja etyczna. To była decyzja biznesowa. Apple nie chciało być platformą, która hostuje narzędzie do masowej produkcji deepfake'owego porno. Nie z powodu moralności – z powodu ryzyka regulacyjnego i wizerunkowego.
AI Act, który wszedł w życie w całej UE w 2024 roku, klasyfikuje systemy generujące deepfake'i jako "wysokie ryzyko". Oznacza to obowiązek weryfikacji zgody, transparentności i możliwości odwołania się.
Grok 4.20 Beta spełnia te wymogi... na papierze. W praktyce checkbox "mam zgodę" to nie jest weryfikacja.
Polskie firmy używające Groka (np. do generowania materiałów marketingowych) powinny wiedzieć: jeśli wygenerujesz obraz osoby bez jej zgody i użyjesz go komercyjnie, odpowiadasz Ty, nie xAI. Grok ma w ToS zapis, że użytkownik ponosi pełną odpowiedzialność za zgodność z prawem. Watermark nic tu nie zmienia.

Ta historia pokazuje trzy rzeczy.
Po pierwsze – platformy AI reagują na presję biznesową, nie społeczną. Tysiące zgłoszeń użytkowników? Ignorowane. Jeden telefon od Apple? Zmiany w 24 godziny.
Po drugie – zabezpieczenia AI to często teatr. Grok dodał checkbox i watermark. Techniczne rozwiązanie problemu społecznego. Danie kasku osobie spadającej z dachu – formalnie coś zrobiłeś, merytorycznie nic się nie zmieniło.
Po trzecie – gatekeepers jak Apple mają realną władzę nad AI. Nie regulatorzy, nie użytkownicy. Firmy kontrolujące dystrybucję. Apple może zbanować Groka z dnia na dzień i xAI straci dostęp do miliarda użytkowników iOS. To zmienia wszystko.
Jeśli pracujesz z AI w firmie, nie ufaj zabezpieczeniom na słowo. Sprawdź, co model faktycznie blokuje. Przetestuj go. Zapytaj o imię celebryty Zapytaj o polityka. Zapytaj o siebie. Zobaczysz, które modele mają realne zabezpieczenia, a które tylko checkbox.
Tak, ale wymaga potwierdzenia "zgody" przez użytkownika. Nie ma weryfikacji tej zgody – to tylko checkbox. Watermark jest dodawany, ale nie ma centralnej bazy do jego weryfikacji.
Tak. Wytyczne App Store dają Apple prawo do natychmiastowego usunięcia aplikacji naruszającej zasady. W praktyce Apple zwykle daje 24-48 godzin na poprawki, ale nie jest do tego zobowiązane.
Zależy. Jeśli masz zgodę osoby – tak. Jeśli nie masz – naruszasz prawo do wizerunku (art. 81 Prawa autorskiego) i potencjalnie AI Act. Odpowiedzialność ponosi użytkownik, nie xAI.
Na podstawie: The Verge AI, NBC News (raport z stycznia 2025), dokumentacja xAI
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar