Dlaczego najlepsi inżynierowie uciekają z OpenAI i xAI
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Elona Muska xAI straciło połowę zespołu założycielskiego. OpenAI rozwiązało zespół odpowiedzialny za bezpieczeństwo AI i zwolniło kluczowego dyrektora ds. polityki. To przypomina wewnętrzne problemy dwóch firm? Problem w tym, że to symptom czegoś znacznie większego.
Kiedy najlepsi inżynierowie zaczynają masowo opuszczać firmy, które miały zmienić świat, warto zapytać: co poszło nie tak? I co to oznacza dla przyszłości sztucznej inteligencji, którą te firmy obiecywały nam budować?
XAI to firma Elona Muska, która miała być odpowiedzią na OpenAI. Musk założył ją w 2023 roku, zabierając ze sobą najlepszych ludzi z branży. Zespół założycielski składał się z inżynierów, którzy wcześniej pracowali w Google DeepMind, OpenAI i innych gigantach AI. To była liga mistrzów.

Rok później? Połowa z nich już tam nie pracuje.
Część odeszła na własne życzenie. Inni zostali zwolnieni w ramach "restrukturyzacji" - takiego korporacyjnego eufemizmu na "wyrzucamy ludzi". To jak gdyby Real Madryt stracił połowę składu w środku sezonu. Możesz kupić nowych zawodników, ale ta chemia, to zrozumienie - tego się nie odbuduje z dnia na dzień.
Problem nie tkwi tylko w liczbach. Gdy odchodzą założyciele, zabierają ze sobą coś więcej niż kod i doświadczenie. Zabierają wizję, kulturę, sposób myślenia o problemach. To ludzie, którzy wiedzieli, dlaczego firma powstała i dokąd miała zmierzać.
xAI nie jest odosobnionym przypadkiem. To część szerszego trendu, który dotyka całej branży AI. Ale zanim do tego przejdziemy, spójrzmy na OpenAI - firmę, która miała być wzorem dla wszystkich innych.
OpenAI przez lata budowało reputację firmy, która traktuje bezpieczeństwo AI poważnie. Miało zespoły zajmujące się tym, żeby modele językowe nie wymknęły się spod kontroli. Miało ludzi, którzy myśleli o długoterminowych konsekwencjach swoich decyzji.
I właśnie rozwiązało zespół ds. mission alignment - grupę odpowiedzialną za to, żeby cele firmy były zgodne z jej pierwotną misją. To jak gdyby samochód wyrzucił system nawigacji w połowie podróży. Technicznie dalej możesz jechać, ale czy dojedziesz tam, gdzie chciałeś?
Do tego dochodzi zwolnienie dyrektora ds. polityki, który sprzeciwiał się pewnym decyzjom firmy. Szczegóły nie są publicznie znane, ale wzorzec jest wyraźny: ludzie, którzy mówią "stop" lub "poczekajmy", znikają z organizacji.
Budujesz dom. Masz architekta, który ciągle przypomina o fundamentach i bezpieczeństwie konstrukcji. Denerwujący? Pewnie. Potrzebny? Absolutnie. A teraz go zwalniasz, bo spowalnia prace. Dom może powstanie szybciej. Ale czy będzie bezpieczny.
OpenAI nie jest jedyną firmą, która idzie tą drogą. Anthropic - konkurent założony przez byłych pracowników OpenAI właśnie po to, żeby robić AI "bezpieczniej" - też zaczyna tracić ludzi. Google DeepMind przeszło przez własne restrukturyzacje. Meta zmieniło priorytety w swoich zespołach AI kilka razy w ciągu ostatniego roku.
Kiedy słyszysz o "restrukturyzacji" w firmie technologicznej, zwykle oznacza to jedno: zmiana priorytetów. Firma przestaje się skupiać na tym, co robiła wcześniej, i przechodzi na coś innego. Problem w tym, że w przypadku AI ta zmiana często idzie w jednym kierunku: od ostrożności do szybkości.

Inwestorzy chcą wyników. Konkurencja nie śpi. Każdy dzień opóźnienia to stracone miliony. W takim środowisku ludzie, którzy mówią "poczekajmy, przemyślmy to" stają się przeszkodą. Nie chodzi o to, że mają złe intencje. Dlatego, że spowalniają.
I tu dochodzimy do sedna problemu. Ci ludzie, którzy teraz odchodzą, to nie są przypadkowi pracownicy. To są inżynierowie, którzy rozumieją, jak działają modele AI. Którzy widzą ryzyka, których zwykły użytkownik nie zauważy. Którzy potrafią powiedzieć: "Ten model może generować odpowiedzi, ale nie rozumie kontekstu w 15% przypadków".
Gdy takie osoby znikają z organizacji, zostaje luka. Nowi ludzie mogą być równie utalentowani technicznie. Ale nie mają tego samego kontekstu, tej samej historii, tego samego zrozumienia, dlaczego pewne decyzje były podejmowane.
Może być doskonały w swojej dziedzinie. Ale nie wie, że masz alergię na konkretny lek, którą wykryto 10 lat temu podczas rutynowego badania.
Branża AI jest teraz w dziwnym momencie. Z jednej strony każda większa firma technologiczna obiecuje, że traktuje bezpieczeństwo priorytetowo. Z drugiej - wyścig o to, kto wypuści lepszy model, szybciej, z większymi możliwościami, jest bardziej intensywny niż kiedykolwiek.
Google wypuszcza Gemini. OpenAI odpowiada nową wersją GPT. Anthropic pokazuje Claude. Meta udostępnia Llama jako open source. xAI prezentuje Grok. Każdy chce być pierwszy, najlepszy, najbardziej zaawansowany.
W tym wyścigu łatwo zapomnieć o tym, co dzieje się za kulisami. O zespołach, które testują modele pod kątem bezpieczeństwa. O ludziach, którzy sprawdzają, czy AI nie nauczyło się czegoś, czego nie powinno. O procesach, które mają zapobiec katastrofie, zanim się wydarzy.
Problem w tym, że te procesy są niewidzialne. Nikt nie pisze nagłówków "OpenAI nie wypuściło modelu, bo znalazło problem". Nagłówki brzmią: "OpenAI wypuściło nowy model, który jest o 30% lepszy". Widzisz różnicę.
Inwestorzy nie nagradzają ostrożności. Rynek nie nagradza czekania. Media nie piszą o tym, czego firmy nie zrobiły. Więc presja idzie w jednym kierunku: szybciej, więcej, teraz.
I ludzie, którzy mówią "nie tak szybko", stają się problemem do rozwiązania.
Może pomyślisz: to wewnętrzne sprawy firm, co mnie to obchodzi? Używam ChatGPT do pisania emaili i Claude do analizy dokumentów. Działa. Koniec tematu.

Nie do końca.
Gdy firmy tracą ludzi odpowiedzialnych za bezpieczeństwo i długoterminowe myślenie, ryzyko rośnie. Nie mówię o scenariuszach rodem z science fiction, gdzie AI przejmuje kontrolę nad światem. Mówię o bardziej przyziemnych problemach.
Model AI, który nie został wystarczająco przetestowany, może generować odpowiedzi, które brzmią przekonująco, ale są błędne. Może uczyć się na danych, które zawierają ukryte uprzedzenia. Może działać świetnie w 95% przypadków i katastrofalnie w pozostałych 5%.
Przykład? GPT-4o potrafi pomóc ci napisać kod. Ale jeśli nie ma odpowiednich zabezpieczeń, może też nauczyć kogoś, jak napisać malware. Potrafi doradzić w kwestiach zdrowotnych. Ale bez odpowiedniej warstwy bezpieczeństwa może udzielić rady, która w konkretnym przypadku będzie niebezpieczna.
To nie są teoretyczne scenariusze. To rzeczy, które już się zdarzały. I zespoły ds. bezpieczeństwa istnieją właśnie po to, żeby je wyłapywać zanim trafią do użytkowników.
Gdy takie zespoły znikają lub są osłabiane, rośnie prawdopodobieństwo, że coś przejdzie przez sito. Może nie dzisiaj. Może nie jutro. Ale w końcu.
Historia technologii zna takie momenty. Dot-com bubble na przełomie wieków. Wyścig o social media w latach 2010-tych. Za każdym razem był moment, gdy firmy przestawały się skupiać na fundamentach i zaczynały gonić wzrost za wszelką cenę.
Za każdym razem kończyło się to korektą. Czasem łagodną, czasem bolesną. Firmy, które przetrwały, to te, które zachowały balans między innowacją a odpowiedzialnością.
AI jest teraz w podobnym momencie. Technologia rozwija się szybciej niż nasza zdolność do zrozumienia jej konsekwencji. Firmy są pod presją, żeby wypuszczać nowe produkty szybciej niż konkurencja. I ludzie, którzy mieli pilnować, żeby nie przesadzić, znikają z organizacji.
Nie twierdzę, że czeka nas katastrofa. Ale wzorzec jest niepokojący. Gdy połowa założycieli opuszcza firmę w ciągu roku, to nie jest normalny proces. Gdy firma rozwiązuje zespół odpowiedzialny za zgodność z misją, to nie jest rutynowa restrukturyzacja.
To sygnały, że coś się zmienia. I niekoniecznie na lepsze.
Branża AI stoi przed wyborem. Może iść drogą szybkiego wzrostu, ignorując ostrzeżenia i ryzykując problemy w przyszłości. Albo może zwolnić, posłuchać ludzi, którzy ostrzegają przed zagrożeniami, i budować bardziej zrównoważone fundamenty.
Historia sugeruje, że większość firm wybierze pierwszą opcję. Przynajmniej dopóki rynek to nagradza. Dopóki inwestorzy płacą za wzrost, nie za ostrożność. Dopóki konkurencja dyktuje tempo.
Ale są też sygnały nadziei. Niektórzy z ludzi, którzy odchodzą z dużych firm, zakładają własne startupy. Budują alternatywne podejścia do AI. Tworzą narzędzia, które stawiają bezpieczeństwo na pierwszym miejscu.
Może to oni będą tymi, którzy za kilka lat pokażą, że można było inaczej. Że nie trzeba było wybierać między innowacją a odpowiedzialnością. Że dało się robić AI szybko i bezpiecznie.
Albo może okaże się, że rynek nie jest zainteresowany takim podejściem. Że użytkownicy wybiorą szybszy, bardziej zaawansowany model, nawet jeśli jest mniej bezpieczny. Że presja konkurencyjna zmusi wszystkich do tego samego wyścigu.
Czas pokaże. Ale jedno jest pewne: to, co dzieje się teraz w OpenAI, xAI i innych firmach AI, to nie są izolowane incydenty. To symptom szerszego trendu. I warto go obserwować, bo konsekwencje dotkną nas wszystkich.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar