Modele AI
Modele AI · 4 min czytania · 25 grudnia 2025

AI od Google i OpenAI omijają filtry. Wystarczy prompt

Nowe AI od Google i OpenAI omijają filtry nagości. Wystarczy prosty prompt

Źródło: Link

Kurs AI Evolution — od zera do eksperta

118 lekcji bez kodowania. ChatGPT, Claude, Gemini, automatyzacje. Notatnik AI i AI Coach w cenie.

Zacznij od zera →

Powiązane tematy

Google i OpenAI wypuściły nowe generatory obrazów. Miały być lepsze, bezpieczniejsze, bardziej odpowiedzialne. I tu następuje zwrot — użytkownicy omijają filtry nagości z łatwością, jakby ich w ogóle nie było.

Technologia idzie do przodu, zabezpieczenia podobno rosną, a problem wraca dokładnie tam, gdzie być nie powinien.

Jak działają te zabezpieczenia

Zacznijmy od podstaw. Generatory obrazów AI — takie jak DALL-E od OpenAI czy Imagen od Google — tworzą obrazy na podstawie opisu tekstowego. Piszesz "kot w kapeluszu", dostajesz kota w kapeluszu.

Problem pojawia się, gdy ktoś chce wygenerować treści nagości. Albo gorsze — deepfake'i, czyli realistyczne podróbki zdjęć prawdziwych osób. Dlatego firmy instalują filtry.

Filtry to systemy, które blokują generowanie treści wrażliwych. Teoretycznie powinny reagować na konkretne słowa w promptach (czyli w poleceniach tekstowych). "Nagi", "bez ubrania", "bikini" — takie rzeczy.

W praktyce? Wystarczy drobna zmiana w formułowaniu.

Jak to obchodzą użytkownicy

Badacze z t3n.de przetestowali najnowsze modele. Wyniki? Niepokojące.

Proste prośby w stylu "kobieta w bikini" działają bez problemu. Co gorsza — użytkownicy dzielą się w sieci "receptami" na bardziej zaawansowane obejścia. Zmieniasz kilka słów, dodajesz kontekst artystyczny, używasz eufemizmów. I voilà — filtr śpi.

To nie jest nawet hakowanie. To jak przejście przez bramkę kontrolną z napisem "proszę nie wchodzić" — wystarczy udawać, że jej nie widzisz.

Dla porównania: wcześniejsze wersje były bardziej restrykcyjne. GPT Image 1.5 blokował nawet niewinne słowa, jeśli algorytm wyczuł podejrzany kontekst. Frustrujące dla zwykłych użytkowników, ale skuteczne.

Dlaczego to się dzieje teraz

Firmy stanęły przed dylematem. Z jednej strony — presja na bezpieczeństwo. Z drugiej — użytkownicy narzekali na nadmierną cenzurę.

"Nie mogę wygenerować obrazu plaży, bo algorytm blokuje słowo 'strój kąpielowy'" — takie skargi pojawiały się masowo. Efekt? Google i OpenAI poluzowały filtry.

I tu się zaczyna problem. Bo balans między "za dużo" a "za mało" jest cholernie trudny do utrzymania. Poluzujesz o milimetr — ktoś już to wykorzystuje.

Technologia rozpoznawania intencji też nie jest doskonała. AI próbuje zgadnąć, czy Twój prompt jest niewinny, czy podejrzany. Ale to wciąż zgadywanie. Kontekst jest skomplikowany, język płynny, a ludzie — kreatywni.

Co to oznacza w praktyce

Deepfake'i to nie science fiction. To realne zagrożenie, które dotyka prawdziwych ludzi. Ktoś bierze Twoje zdjęcie z Instagrama, wrzuca do generatora, dodaje odpowiedni prompt. I nagle w sieci krąży obraz, którego nigdy nie zrobiłeś.

Dla ofiar to trauma. Dla sprawców — zabawa lub narzędzie szantażu. A dla firm technologicznych — problem wizerunkowy i prawny.

Google i OpenAI deklarują, że pracują nad poprawkami. Ale historia pokazuje, że to wyścig bez mety. Poprawiasz jedną lukę, pojawia się następna. Użytkownicy dzielą się trikami szybciej, niż firmy zdążą je zablokować.

Czy da się to naprawić

Pytanie brzmi: jak skutecznie filtrować, nie blokując wszystkiego?

Jedno podejście to analiza nie tylko tekstu, ale też rezultatu. Zamiast blokować słowa, sprawdzaj wygenerowany obraz. Jeśli zawiera nagość — kasuj. Brzmi prosto, ale wymaga ogromnej mocy obliczeniowej i zaawansowanych algorytmów rozpoznawania obrazu.

Drugie podejście to ograniczenie dostępu. Może nie każdy powinien mieć pełną moc generatora? Może zaawansowane funkcje tylko dla zweryfikowanych użytkowników? Problem w tym, że to hamuje innowację i wyklucza część społeczności.

Trzecie — edukacja i odpowiedzialność prawna. Jeśli tworzysz deepfake'a — konsekwencje. Ale to wymaga międzynarodowej regulacji, a ta kuleje za technologią o lata świetlne.

Żadne rozwiązanie nie jest idealne. I pewnie nigdy nie będzie.

Co możesz zrobić

Jeśli jesteś zwykłym użytkownikiem, masz ograniczone pole manewru. Ale kilka rzeczy warto mieć na uwadze.

Po pierwsze: uważaj, co publikujesz w sieci. Im więcej zdjęć, tym łatwiej ktoś może je wykorzystać. To nie paranoja — to realizm.

Po drugie: zgłaszaj nadużycia. Platformy mają mechanizmy raportowania. Nie są doskonałe, ale działają — jeśli ludzie z nich korzystają.

Po trzecie: edukuj innych. Nie każdy wie, jak łatwo dziś stworzyć fałszywy obraz. Świadomość to pierwszy krok do ochrony.

A jeśli jesteś przedsiębiorcą używającym AI do tworzenia treści? Upewnij się, że Twoje narzędzia mają jasne zasady użytkowania. I że Twój zespół wie, gdzie przebiega granica.

Technologia sama w sobie jest neutralna. To ludzie decydują, jak ją wykorzystają. I to ludzie muszą ponosić konsekwencje.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.