OpenAI tworzy posadę strażnika zagrożeń AI. Altman ostrzega
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Sam Altman właśnie ogłosił coś, co przypomina scenariusz z filmu sci-fi. OpenAI tworzy dedykowane stanowisko do monitorowania zagrożeń związanych z ChatGPT i innymi modelami AI.
A szef firmy uprzedza wprost: "To będzie stresująca robota".
Pytanie brzmi — czy to autentyczny niepokój, czy sprytny ruch PR?
Nowa rola w OpenAI to nie zwykłe stanowisko ds. bezpieczeństwa. Osoba na tym miejscu będzie odpowiedzialna za identyfikację potencjalnych zagrożeń płynących z dużych modeli językowych — czyli LLM (Large Language Models, te same "mózgi", które napędzają ChatGPT).
W praktyce oznacza to śledzenie:
Altman nie ukrywa: to praca wymagająca ciągłej czujności. Każda nowa wersja modelu to nowe potencjalne luki. Każda funkcja to nowy wektor ataku.
OpenAI nie jest pierwszą firmą, która mówi o bezpieczeństwie AI. Timing tego ogłoszenia jest jednak interesujący.
ChatGPT ma już setki milionów użytkowników. Model jest integrowany z narzędziami, których używasz codziennie — od Worda po aplikacje mobilne. Skala to jedno.
Problem w tym, że im więcej ludzi korzysta z technologii, tym więcej osób próbuje ją złamać.
I nie chodzi tylko o hakerów. Czasem wystarczy zwykły użytkownik, który przez przypadek odkryje, jak nakłonić AI do zrobienia czegoś, czego robić nie powinno. Pamiętasz historie o promptach, które obchodziły filtry bezpieczeństwa? To dopiero początek.
OpenAI rozwija też coraz potężniejsze modele. GPT-4o to jedno. Firma już pracuje nad kolejnymi wersjami. Im bardziej zaawansowany model, tym trudniej przewidzieć wszystkie jego zachowania.
Tu zaczyna się ciekawe.
Z jednej strony — OpenAI ma interes w pokazywaniu, że bierze bezpieczeństwo na poważnie. To buduje zaufanie inwestorów, uspokaja regulatorów, daje argument w dyskusjach z politykami.
Z drugiej: firma rzeczywiście ma powody do obaw.
W 2023 roku wyciekły dokumenty pokazujące wewnętrzne dyskusje o ryzykach związanych z AGI (Artificial General Intelligence — czyli AI na poziomie ludzkiej inteligencji). Zespół badający bezpieczeństwo w OpenAI był wielokrotnie restrukturyzowany. Kilku kluczowych ekspertów odeszło z firmy, publicznie mówiąc o rozczarowaniu tempem prac nad zabezpieczeniami.
Altman sam przyznaje, że nowe stanowisko będzie "stresujące". To nie przypomina pusta deklaracja. To przypomina przyznanie się do tego, że skala problemu jest większa, niż firma potrafi ogarnąć standardowymi metodami.
Dla Ciebie, jako osoby korzystającej z ChatGPT, to może oznaczać kilka rzeczy.
Po pierwsze: więcej ograniczeń. Jeśli ktoś będzie aktywnie szukał zagrożeń, znajdzie je. A każde znalezione zagrożenie to nowy filtr, nowa blokada, nowy komunikat "Przepraszam, nie mogę tego zrobić".
Po drugie: wolniejsze tempo wprowadzania nowych funkcji. Jeśli każda nowość musi przejść przez dodatkową warstwę kontroli, innowacje będą się pojawiać rzadziej.
Po trzecie — i to może najważniejsze — większa transparentność. Jeśli OpenAI serio traktuje monitoring zagrożeń, będzie musiało częściej komunikować, co idzie nie tak.
A to oznacza, że Ty będziesz lepiej wiedział, na co uważać.
Google, Anthropic, Meta — wszyscy mają zespoły ds. bezpieczeństwa AI. Dedykowane stanowisko na najwyższym szczeblu, z bezpośrednim raportowaniem do CEO?
To nowość.
Jeśli OpenAI to zrobi, presja na konkurencję automatycznie rośnie. Nikt nie chce być firmą, która "nie dba o bezpieczeństwo". Więc spodziewaj się podobnych ogłoszeń w ciągu najbliższych miesięcy.
Problem w tym, że tworzenie stanowiska to jedno. Realne działanie to drugie. Historia technologii zna mnóstwo przykładów firm, które głośno mówiły o etyce, a cicho robiły swoje.
Altman mówi, że to będzie stresujące stanowisko. I pewnie ma rację.
Dla osoby na tym stanowisku — na pewno. Twoim zadaniem jest przewidywanie, jak ludzie mogą wykorzystać narzędzie, które jeszcze nie istnieje. Albo jak model AI może zachować się w sytuacji, której nikt jeszcze nie testował.
Dla Altmana i zarządu OpenAI — też. Bo każdy raport o nowym zagrożeniu to decyzja: opóźniamy premierę czy ryzykujemy.
Może najbardziej stresujące to jest dla całej branży. Bo jeśli OpenAI — lider rynku, firma z największymi zasobami — mówi wprost "potrzebujemy kogoś, kto będzie tylko patrzył, co może pójść nie tak", to co to mówi o stanie całej technologii.
To trochę jak pilot samolotu, który w połowie lotu ogłasza przez radio: "Zatrudniamy dodatkowego copilota, bo ta maszyna jest bardziej skomplikowana, niż myśleliśmy".
Uspokajające.
Niekoniecznie. Przynajmniej szczere.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar