OpenAI: specjalista od katastrof AI z kosmiczną pensją
Źródło: Link
Źródło: Link
118 lekcji bez kodowania. ChatGPT, Claude, Gemini, automatyzacje. Notatnik AI i AI Coach w cenie.
27 grudnia 2025 roku Sam Altman wrzucił na X ofertę pracy. Nie jakąś tam pozycję dla programisty czy marketera. Szukał szefa ds. przygotowania na sytuacje kryzysowe w OpenAI.
I od razu ostrzegł: "To będzie stresująca robota".
To przypomina scenariusz thrillera o AI, która wymyka się spod kontroli? Cóż, może dlatego, że OpenAI traktuje to właśnie tak poważnie.
Stanowisko nazywa się Chief Readiness Officer. Po polsku: szef gotowości na wszystko, co może pójść nie tak.
Nie chodzi tu o naprawianie błędów w kodzie. Chodzi o coś znacznie większego – przewidywanie scenariuszy, w których ChatGPT lub inne modele OpenAI mogą narobić problemów na skalę globalną.
taką sytuację: model AI nagle zaczyna generować treści, które prowadzą do paniki na giełdzie. Albo ktoś używa go do skoordynowanego ataku dezinformacyjnego. Albo – jeszcze gorzej – system zaczyna działać w sposób, którego nikt nie przewidział i nie potrafi wyjaśnić.
Właśnie do takich scenariuszy ma się przygotować osoba na tym stanowisku.
Sam Altman nie ma zwyczaju wrzucać ofert pracy na swoim koncie. Ma ludzi od HR. Ma dyrektorów. Ma cały dział rekrutacji.
A jednak tym razem sam zajął się sprawą.
To sygnał. OpenAI wie, że rozwija technologię, która może zmienić świat – na lepsze lub gorsze. I chce mieć w zespole kogoś, kto będzie myślał o tym, co może pójść źle, zanim to się stanie.
Nie po fakcie. Nie gdy już wybuchnie skandal. Wcześniej.
To trochę jak zatrudnianie eksperta od bezpieczeństwa jądrowego w elektrowni. Nikt nie chce, żeby ta osoba miała okazję pokazać swoje umiejętności w praktyce. Ale wszyscy chcą, żeby tam była.
Altman nie owijał w bawełnę. Napisał wprost: to praca dla kogoś o mocnych nerwach.
I łatwo zrozumieć dlaczego.
Ta osoba będzie musiała myśleć o najgorszych możliwych scenariuszach. Codziennie. Będzie zadawać pytania typu: "Co jeśli ktoś zhakuje model?", "Co jeśli AI nauczy się czegoś, czego nie powinno?", "Co jeśli rządy zaczną używać naszej technologii w sposób, którego nie zaplanowaliśmy?"
To nie jest praca dla optymisty, który wierzy, że technologia zawsze rozwiąże wszystkie problemy. To praca dla realisty, który wie, że każda potężna technologia niesie ze sobą ryzyko.
I że lepiej być przygotowanym.
OpenAI nie podało konkretnej kwoty w ogłoszeniu. Ale źródła branżowe mówią o "astronomicznych" wynagrodzeniach dla kluczowych stanowisk w firmie.
Biorąc pod uwagę, że OpenAI jest jedną z najcenniejszych firm AI na świecie (wyceniana na dziesiątki miliardów dolarów), że Sam Altman osobiście rekrutuje, i że to stanowisko jest określane jako "strategiczne" – możemy założyć, że pensja będzie odpowiednia.
Prawdopodobnie mówimy o sześciocyfrowych kwotach w dolarach. Rocznie. Plus premie. Plus opcje na akcje.
Ale szczerze? Pieniądze to nie wszystko. To stanowisko to przede wszystkim odpowiedzialność. Ogromna.
OpenAI nie jest pierwszą firmą, która myśli o bezpieczeństwie AI. Ale jest pierwszą, która tak głośno mówi o potrzebie osoby dedykowanej do przewidywania kryzysów.
To może uruchomić efekt domina.
Jeśli OpenAI – lider branży – publicznie przyznaje, że potrzebuje kogoś do zarządzania ryzykiem katastrof AI, inne firmy zaczną się zastanawiać: "A my? Czy my jesteśmy przygotowani?"
Google, Meta, Anthropic, Microsoft – wszyscy rozwijają potężne modele AI. I wszyscy będą musieli zadać sobie to samo pytanie.
Może za rok zobaczymy podobne stanowiska w każdej dużej firmie AI. A może to już się dzieje, tylko nikt nie mówi o tym tak otwarcie jak Altman.
Niekoniecznie.
To raczej oznacza, że OpenAI jest realistyczne. Wie, że rozwija technologię, której pełnych konsekwencji jeszcze nie znamy. I że lepiej być przygotowanym na różne scenariusze.
To trochę jak ubezpieczenie. Nie kupujesz go, bo planujesz wypadek. Kupujesz je, bo wiesz, że życie jest nieprzewidywalne.
Tylko że w przypadku AI stawki są znacznie wyższe niż w przypadku ubezpieczenia samochodu.
ChatGPT ma setki milionów użytkowników. Jest używany w biznesie, edukacji, medycynie, prawie. Każdy problem na tej skali może mieć globalne konsekwencje.
I OpenAI o tym wie.
Oferta nie podaje szczegółowych wymagań, ale możemy się domyślać.
To nie może być tylko technik. Musi rozumieć technologię, ale także politykę, socjologię, etykę, prawo międzynarodowe. Musi umieć myśleć jak haker, jak dyktator, jak terrorysta, jak przypadkowy użytkownik, który przez pomyłkę uruchomi coś niebezpiecznego.
To osoba, która musi widzieć trzy kroki do przodu. Zawsze.
I – co najważniejsze – musi umieć przekonać zespół inżynierów, że warto zwolnić, zastanowić się, zmienić plan, nawet jeśli wszystko wydaje się działać idealnie.
Bo czasami największe zagrożenie nie przychodzi z błędów. Przychodzi z tego, co działa zbyt dobrze.
Rekrutacja trwa. Altman nie powiedział, kiedy pozycja zostanie obsadzona, ale biorąc pod uwagę wagę stanowiska – pewnie nie będzie to szybki proces.
Ale sama informacja, że takie stanowisko powstaje, to już sygnał. OpenAI nie udaje, że wszystko jest pod kontrolą. Przyznaje, że rozwija coś potężnego. I że potrzebuje ludzi, którzy pomogą zapewnić, że ta potęga nie wymknie się spod kontroli.
To może być najbardziej stresująca praca w branży AI. Ale też jedna z najważniejszych.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar