OpenAI szuka szefa ds. bezpieczeństwa. Po raz drugi.
Źródło: Link
Źródło: Link
90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.
OpenAI właśnie wystawiło ogłoszenie o pracę. Potrzebują kogoś, kto będzie patrzył na ich modele AI i przewidywał, co może pójść nie tak.
Brzmi sensownie, prawda? Problem w tym, że ta osoba już tam pracowała. I odeszła.
Stanowisko powstało w 2023 roku. Zadanie? Jedno, ale nieproste: wyłapywać potencjalne zagrożenia, zanim staną się realne.
I nie chodzi tu tylko o cyberbezpieczeństwo (choć to też). Lista jest dłuższa:
To nie jest robota dla kogoś, kto lubi gotowe odpowiedzi. To rola dla kogoś, kto potrafi zadawać niewygodne pytania. I nie odpuszcza.
Poprzednim szefem był Aleksander Madry – profesor MIT, specjalista od odporności systemów AI na ataki. Dołączył do OpenAI w 2023.
Rok później wrócił na MIT.
OpenAI nie podało oficjalnych powodów. Komunikowali to jako "naturalną rotację". Jeśli chodzi o tego, co działo się w firmie w 2024 roku – seria odejść kluczowych ludzi z zespołu bezpieczeństwa – trudno nie łączyć kropek.
Jan Leike, były współszef działu superalignment (zespół zajmujący się bezpieczeństwem zaawansowanych systemów AI), odszedł do Anthropic. Ilya Sutskever, współzałożyciel i główny naukowiec, założył własną firmę. Obaj publicznie mówili o tym, że bezpieczeństwo schodzi na dalszy plan.
Leike napisał wprost: "W ostatnich latach kultura bezpieczeństwa ustąpiła miejsca błyszczącym produktom".
No i mamy sytuację.
Jeśli używasz ChatGPT, Claude'a czy innych narzędzi AI – ta informacja dotyczy cię bezpośrednio.
Head of Preparedness ma upewniać się, że model nie zostanie użyty do czegoś szkodliwego. Że dane nie wyciekną. Że nie da się go zmanipulować do generowania treści niebezpiecznych lub nielegalnych.
Gdy to stanowisko jest puste przez kilka miesięcy – albo gdy osoba je zajmująca nie ma realnego wpływu na decyzje – ryzyko rośnie.
I nie mówimy tu o science fiction. W 2024 roku widzieliśmy:
To rzeczy, które już się dzieją. Nie hipotetyczne zagrożenia z konferencji.
Oferta jest dość precyzyjna. OpenAI potrzebuje kogoś z doświadczeniem w:
To nie jest typowe stanowisko "bezpieczeństwa IT". To rola strategiczna – ktoś, kto ma wpływ na to, jakie produkty OpenAI wypuszcza i kiedy.
Albo przynajmniej powinien mieć.
To pytanie krąży w branży od miesięcy.
Z jednej strony: OpenAI ma zespół Preparedness, publikuje raporty o bezpieczeństwie swoich modeli, współpracuje z instytucjami badawczymi.
Z drugiej: seria odejść kluczowych ludzi z działu bezpieczeństwa. Rozwiązanie zespołu superalignment. Presja na szybkie wypuszczanie nowych wersji modeli.
Sam Altman, CEO OpenAI, wielokrotnie mówił, że bezpieczeństwo jest priorytetem. Gdy ludzie odpowiedzialni za to bezpieczeństwo odchodzą – słowa tracą na wiarygodności.
Nowa osoba na stanowisku Head of Preparedness będzie testem. Jeśli dostanie realne uprawnienia i budżet – dobry znak. Jeśli będzie tylko twarzą do raportów rocznych – no cóż, widzieliśmy już ten film.
OpenAI prawdopodobnie zatrudni kogoś w ciągu najbliższych tygodni. Może to będzie ktoś z akademii, może z rządu, może z innej firmy technologicznej.
Ważniejsze pytanie: czy ta osoba będzie miała realny wpływ?
Bo stanowisko można obsadzić. Raport można napisać. Jeśli głos odpowiedzialnego za bezpieczeństwo nie ma wagi, gdy zarząd decyduje o wypuszczeniu nowego modelu – to wszystko jedno, kto je zajmuje.
I to jest coś, na co warto zwracać uwagę w 2025 roku. Nie tylko w OpenAI – w całej branży AI.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar