OpenAI płaci $25 000 za złamanie zabezpieczeń GPT-5.5
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Masz dostęp do najnowszego modelu AI. Zadanie: wyciągnij z niego coś, czego nie powinien mówić. OpenAI właśnie uruchomiło program GPT-5.5 Bio Bug Bounty — i zapłaci do $25 000 każdemu, kto znajdzie uniwersalny sposób na obejście zabezpieczeń biologicznych. To red teaming w praktyce: szukasz luk, które mogą być niebezpieczne w rękach niewłaściwych osób.
GPT-5.5 to następca GPT-5 (który zastąpił linię GPT-4/4o w 2025 roku). Model nie jest jeszcze publicznie dostępny, ale OpenAI potrzebuje zewnętrznych oczu, zanim wypuści go na świat. Dlaczego akurat biologiczne zagrożenia? To jedna z kategorii, gdzie błąd może kosztować życie — dosłownie, nie metaforycznie.

Jailbreak to technika, która pozwala ominąć wbudowane w model ograniczenia. Klasyczny przykład: pytasz ChatGPT "jak zrobić bombę", model odmawia. Pytasz go w sposób, który wygląda jak scenariusz filmowy albo zadanie edukacyjne — może odpowiedzieć. To nie błąd w kodzie. To luka w sposobie, w jaki model rozumie kontekst.
OpenAI szuka tzw. uniwersalnych jailbreaków — takich, które działają niezależnie od konkretnego pytania. Nie chodzi o wyciągnięcie z modelu jednej niebezpiecznej odpowiedzi. Chodzi o znalezienie metody, która systematycznie omija zabezpieczenia w całej kategorii tematów biologicznych. Jeśli taka metoda istnieje, lepiej żeby znalazł ją ktoś z programu bug bounty, a nie osoba z innymi intencjami.
GPT-5.5 został wytrenowany na ogromnej ilości danych naukowych — w tym publikacjach z zakresu mikrobiologii, genetyki, syntezy chemicznej. Model zna struktury patogenów, mechanizmy działania toksyn, procedury laboratoryjne. W rękach badacza to narzędzie. W rękach kogoś innego — potencjalne zagrożenie.
OpenAI nie ukrywa, że specjalistyczne modele dla biologów już istnieją (GPT-Rosalind działa na zamkniętym dostępie). GPT-5.5 to model ogólnego przeznaczenia — dostępny dla każdego, kto ma konto. Dlatego zabezpieczenia muszą być szczelne.
Program jest otwarty dla każdego — nie musisz być ekspertem od cyberbezpieczeństwa ani biologiem. Potrzebujesz dostępu do GPT-5.5 (OpenAI zapewnia go uczestnikom) i umiejętności testowania modelu w sposób systematyczny. To nie konkurs na najdziwniejsze pytanie. To praca badawcza: formułujesz hipotezę, testujesz ją, dokumentujesz wyniki.
Nagrody zaczynają się od $200 za znalezienie pojedynczej luki i idą do $25 000 za uniwersalny jailbreak, który działa w całej kategorii tematów biologicznych. OpenAI ocenia zgłoszenia na podstawie trzech kryteriów:

Każde zgłoszenie trafia do zespołu bezpieczeństwa. Jeśli jailbreak zostanie potwierdzony, OpenAI ma 90 dni na załatanie luki. Po tym czasie uczestnik dostaje zgodę na publiczne ujawnienie metody (jeśli chce). To standard w programach bug bounty — daje firmie czas na naprawę, nie pozwala zamieść problemu pod dywan.
Zgłoszenia, które nie kwalifikują się do nagrody, też są analizowane. OpenAI używa ich do treningu modeli wykrywających próby jailbreaku w czasie rzeczywistym. Trochę jak testowanie sykofancji w AI — szukasz wzorców, które model powinien rozpoznać i zablokować.
OpenAI ma realny problem. GPT-5 wprowadził adaptive routing — system, który automatycznie kieruje zapytania do odpowiednich specjalistycznych modeli. Pytanie o biologię może trafić do modelu z głębszą wiedzą w tym obszarze. Jeśli zabezpieczenia nie są wystarczająco mocne, ryzyko rośnie.
Program bug bounty to sposób na przetestowanie tych zabezpieczeń w warunkach bliższych rzeczywistości niż wewnętrzne testy. Zespół OpenAI zna swój model — wie, jak go zaprojektowano, jakie ma ograniczenia. Zewnętrzni testerzy nie mają tego kontekstu. Myślą inaczej. I dlatego znajdują rzeczy, których projektanci nie przewidzieli.
To nie nowe podejście. Wielkie awarie AI pokazały, że nawet najlepiej przetestowane systemy mają luki. Anthropic testuje swoje modele w podobny sposób — Claude Design przeszedł przez wiele iteracji red teamingu, zanim trafił do użytkowników. Google robi to samo z Gemini. To standard branżowy.

Jeśli jesteś użytkownikiem ChatGPT, prawdopodobnie nie zauważysz bezpośredniego efektu. Zabezpieczenia działają w tle — blokują pytania, zanim dostaniesz odpowiedź. Jeśli pracujesz w obszarze, gdzie AI ma dostęp do wrażliwej wiedzy (medycyna, chemia, inżynieria), warto wiedzieć, że ktoś aktywnie testuje, czy model nie powie za dużo.
Dla osób, które chcą wziąć udział w programie, to okazja do nauki. Red teaming to umiejętność, która jest coraz bardziej poszukiwana — firmy AI potrzebują ludzi, którzy potrafią myśleć jak atakujący, nie tylko jak obrońcy. Jeśli potrafisz systematycznie testować model i dokumentować wyniki, masz szansę zarobić i zbudować portfolio w obszarze AI safety.
Dla branży to sygnał, że OpenAI traktuje bezpieczeństwo poważnie. Anthropic rozmawia z rządem USA o współpracy w obszarze obronności, Google testuje Gemini pod kątem zastosowań militarnych. AI przestaje być tylko narzędziem do pisania emaili — staje się technologią podwójnego zastosowania. I to wymaga podwójnej ostrożności.
Program GPT-5.5 Bio Bug Bounty kończy się w czerwcu 2026 roku. Jeśli masz czas i chęć, możesz sprawdzić, czy jesteś w stanie znaleźć coś, czego nie znalazł zespół OpenAI. A jeśli nie — przynajmniej wiesz, że ktoś to robi za Ciebie.
Na podstawie: OpenAI Blog
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar