Modele AI
Modele AI · 4 min czytania · 29 grudnia 2025

OpenAI szuka szefa ds. bezpieczeństwa. Po raz drugi.

OpenAI szuka szefa ds. bezpieczeństwa. Po raz drugi.

Źródło: Link

Darmowy webinar — AI od zera

90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.

Zapisz się →

OpenAI właśnie wystawiło ogłoszenie o pracę. Potrzebują kogoś, kto będzie patrzył na ich modele AI i przewidywał, co może pójść nie tak.

Brzmi sensownie, prawda? Problem w tym, że ta osoba już tam pracowała. I odeszła.

Co robi Head of Preparedness?

Stanowisko powstało w 2023 roku. Zadanie? Jedno, ale nieproste: wyłapywać potencjalne zagrożenia, zanim staną się realne.

I nie chodzi tu tylko o cyberbezpieczeństwo (choć to też). Lista jest dłuższa:

  • Bezpieczeństwo cybernetyczne – jak ktoś mógłby zhackować modele albo ich nadużyć
  • Dezinformacja – generowanie fake newsów na masową skalę
  • Zdrowie psychiczne – jak AI wpływa na samopoczucie ludzi
  • Ryzyko biologiczne i chemiczne – czy AI może pomóc w tworzeniu niebezpiecznych substancji
  • Wpływ na rynek pracy – automatyzacja i jej skutki społeczne

To nie jest robota dla kogoś, kto lubi gotowe odpowiedzi. To rola dla kogoś, kto potrafi zadawać niewygodne pytania. I nie odpuszcza.

Czemu poprzednia osoba odeszła?

Poprzednim szefem był Aleksander Madry – profesor MIT, specjalista od odporności systemów AI na ataki. Dołączył do OpenAI w 2023.

Rok później wrócił na MIT.

OpenAI nie podało oficjalnych powodów. Komunikowali to jako "naturalną rotację". Jeśli chodzi o tego, co działo się w firmie w 2024 roku – seria odejść kluczowych ludzi z zespołu bezpieczeństwa – trudno nie łączyć kropek.

Jan Leike, były współszef działu superalignment (zespół zajmujący się bezpieczeństwem zaawansowanych systemów AI), odszedł do Anthropic. Ilya Sutskever, współzałożyciel i główny naukowiec, założył własną firmę. Obaj publicznie mówili o tym, że bezpieczeństwo schodzi na dalszy plan.

Leike napisał wprost: "W ostatnich latach kultura bezpieczeństwa ustąpiła miejsca błyszczącym produktom".

No i mamy sytuację.

Dlaczego powinno cię to obchodzić?

Jeśli używasz ChatGPT, Claude'a czy innych narzędzi AI – ta informacja dotyczy cię bezpośrednio.

Head of Preparedness ma upewniać się, że model nie zostanie użyty do czegoś szkodliwego. Że dane nie wyciekną. Że nie da się go zmanipulować do generowania treści niebezpiecznych lub nielegalnych.

Gdy to stanowisko jest puste przez kilka miesięcy – albo gdy osoba je zajmująca nie ma realnego wpływu na decyzje – ryzyko rośnie.

I nie mówimy tu o science fiction. W 2024 roku widzieliśmy:

  • Kampanie dezinformacyjne tworzone przez AI (wybory w kilku krajach)
  • Deepfake'i wykorzystywane do oszustw finansowych
  • Narzędzia AI pomagające w tworzeniu złośliwego oprogramowania

To rzeczy, które już się dzieją. Nie hipotetyczne zagrożenia z konferencji.

Kogo szukają?

Oferta jest dość precyzyjna. OpenAI potrzebuje kogoś z doświadczeniem w:

  • Ocenie ryzyka w skali globalnej
  • Pracy z regulatorami i rządami
  • Zarządzaniu zespołami interdyscyplinarnymi (od inżynierów po ekspertów od polityki publicznej)
  • Komunikacji z kadrą kierowniczą

To nie jest typowe stanowisko "bezpieczeństwa IT". To rola strategiczna – ktoś, kto ma wpływ na to, jakie produkty OpenAI wypuszcza i kiedy.

Albo przynajmniej powinien mieć.

Czy OpenAI traktuje bezpieczeństwo serio?

To pytanie krąży w branży od miesięcy.

Z jednej strony: OpenAI ma zespół Preparedness, publikuje raporty o bezpieczeństwie swoich modeli, współpracuje z instytucjami badawczymi.

Z drugiej: seria odejść kluczowych ludzi z działu bezpieczeństwa. Rozwiązanie zespołu superalignment. Presja na szybkie wypuszczanie nowych wersji modeli.

Sam Altman, CEO OpenAI, wielokrotnie mówił, że bezpieczeństwo jest priorytetem. Gdy ludzie odpowiedzialni za to bezpieczeństwo odchodzą – słowa tracą na wiarygodności.

Nowa osoba na stanowisku Head of Preparedness będzie testem. Jeśli dostanie realne uprawnienia i budżet – dobry znak. Jeśli będzie tylko twarzą do raportów rocznych – no cóż, widzieliśmy już ten film.

Co dalej?

OpenAI prawdopodobnie zatrudni kogoś w ciągu najbliższych tygodni. Może to będzie ktoś z akademii, może z rządu, może z innej firmy technologicznej.

Ważniejsze pytanie: czy ta osoba będzie miała realny wpływ?

Bo stanowisko można obsadzić. Raport można napisać. Jeśli głos odpowiedzialnego za bezpieczeństwo nie ma wagi, gdy zarząd decyduje o wypuszczeniu nowego modelu – to wszystko jedno, kto je zajmuje.

I to jest coś, na co warto zwracać uwagę w 2025 roku. Nie tylko w OpenAI – w całej branży AI.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.