Altman przebudowuje OpenAI. Zarząd go wyrzucił, wrócił silniejszy
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
"Kadencja Sama Altmana w OpenAI była... chaotyczna" – tak The Verge podsumowuje ostatnie lata w firmie, która stworzyła ChatGPT. Chaotyczna to delikatne określenie. Zarząd wyrzucił CEO, pracownicy zagrozili odejściem, Altman wrócił po kilku dniach, a potem zaczął przebudowywać organizację od fundamentów. The New Yorker właśnie opublikował szczegółową analizę tego, co naprawdę działo się za zamkniętymi drzwiami OpenAI.
To nie jest kolejna historia o genialnym CEO i jego wizji przyszłości. To historia o władzy, kontroli i pytaniu, które nikt głośno nie zadaje: kto tak naprawdę decyduje o rozwoju technologii, która ma zmienić świat?

Listopad 2023 roku. Zarząd OpenAI odwołuje Sama Altmana z funkcji CEO. Oficjalny powód? "Brak konsekwentnej komunikacji z zarządem". Nieoficjalnie? Konflikt o tempo rozwoju AI i kierunek firmy.
Reakcja była natychmiastowa. Pracownicy OpenAI – ponad 700 osób – podpisali list otwarty z groźbą odejścia do Microsoftu, jeśli Altman nie wróci. Microsoft, który zainwestował w OpenAI miliardy dolarów, zaproponował Altmanowi nową rolę. Zarząd stanął przed wyborem: albo przywrócenie CEO, albo utrata całego zespołu i kluczowego inwestora.
Altman wrócił. Zarząd został wymieniony. To nie była negocjacja – to było przejęcie kontroli.
The New Yorker ujawnia, że konflikt dotyczył fundamentalnych kwestii. Część zarządu – szczególnie ci związani z misją bezpieczeństwa AI – uważała, że Altman forsuje zbyt szybką komercjalizację. OpenAI powstało jako organizacja non-profit z misją rozwoju "bezpiecznej sztucznej inteligencji ogólnej". Altman przekształcił ją w hybrydę: non-profit kontrolujący for-profit, który podpisuje kontrakty warte miliardy.
Dla jednych to pragmatyzm – bez pieniędzy nie zbudujesz AGI. Dla innych – zdrada misji.
Po powrocie Altman nie wrócił do status quo. Rozpoczął systematyczną reorganizację OpenAI. Nowy zarząd, nowe struktury zarządzania, nowe zasady podejmowania decyzji. Firma, która miała być demokratyczną organizacją non-profit, stała się bardziej tradycyjną korporacją technologiczną.
Zmiany objęły nie tylko zarząd. OpenAI zaczęło agresywniej komercjalizować swoje modele. ChatGPT Pro podzielono na dwa plany cenowe, wprowadzono nowe poziomy dostępu, zacieśniono współpracę z Microsoft. Tempo było brutalne.

Nie wszyscy zostali. Ilya Sutskever, współzałożyciel i główny naukowiec OpenAI, odszedł. Jan Leike, szef zespołu superalignment (odpowiedzialnego za bezpieczeństwo przyszłych modeli AI), również. Obaj publicznie mówili o obawach dotyczących priorytetów firmy.
Sutskever założył własną firmę AI – Safe Superintelligence Inc. Leike przeszedł do Anthropic, konkurenta OpenAI założonego przez byłych pracowników firmy, którzy również odeszli z powodu różnic w podejściu do bezpieczeństwa. Anthropic niedawno zamknęło swój najbardziej zaawansowany model w sejfie, uznając go za zbyt potężny do publicznego udostępnienia.
OpenAI działa w strukturze, która sama w sobie jest eksperymentem. Non-profit kontroluje for-profit, który może generować zyski – ale tylko do określonego limitu. Powyżej tego limitu zyski mają wracać do misji non-profit. W teorii to gwarantuje, że pieniądze nie zdominują misji.
W praktyce? The New Yorker pokazuje, że ta struktura generuje ciągłe napięcia. Inwestorzy chcą zwrotu z inwestycji. Zespół bezpieczeństwa chce wolniejszego tempa. Altman chce budować AGI szybciej niż konkurencja. Każda decyzja to kompromis między tymi trzema siłami.
Problem w tym, że po listopadowej reorganizacji jedna z tych sił – zespół bezpieczeństwa – straciła znaczną część wpływu. Nowy zarząd to głównie ludzie biznesu i technologii, nie etycy AI.
Anthropic, założone przez byłych pracowników OpenAI, wybrało inną drogę. Firma od początku postawiła na "Constitutional AI" – system wartości wbudowany w modele. Nie ma hybrydowej struktury non-profit/for-profit. Jest za to jasna deklaracja: bezpieczeństwo przed tempem.
Google z kolei ma problem odwrotny – tyle wewnętrznych zespołów AI, że Gemini musiało być łatane po skandalach, bo nikt nie miał pełnej kontroli nad produktem.
OpenAI próbuje iść środkiem – i właśnie dlatego generuje najwięcej dramatów.

Drama w OpenAI to nie plotka z Silicon Valley. To sygnał, że branża AI stoi przed fundamentalnym pytaniem: kto kontroluje rozwój technologii, która może zmienić wszystko?
Altman wygrał swoją batalię. Wrócił, przebudował firmę, usunął przeciwników. OpenAI teraz rozwija się w tempie, które jeszcze rok temu wydawało się niemożliwe. GPT-5 działa w ChatGPT, byli pracownicy zakładają własne fundusze AI, a sama firma eksperymentuje nawet z marketingiem sportowym.
Czy to dobrze? Czy szybki rozwój AI wymaga silnego, zdecydowanego lidera, który nie daje się spowolnić przez obawy i komitety? Czy może właśnie te obawy i komitety są jedyną rzeczą, która powstrzymuje nas przed wypuszczeniem technologii, której nie potrafimy kontrolować?
The New Yorker nie daje jednoznacznej odpowiedzi. Pokazuje tylko, że w OpenAI ta debata została rozstrzygnięta – na korzyść tempa, nie ostrożności. Czy inne firmy pójdą tą samą drogą? Zobaczymy w ciągu najbliższych miesięcy, gdy presja konkurencyjna będzie rosła.
Jedna rzecz jest pewna: era "bezpiecznego, powolnego rozwoju AI" – jeśli kiedykolwiek istniała – właśnie się skończyła. Altman to udowodnił. Wrócił silniejszy, firma jest bardziej skomercjalizowana, a konkurencja patrzy i wyciąga wnioski.
Na podstawie: The Verge AI - Fear and loathing at OpenAI
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar