OpenAI zwolniło dyrektorkę, która blokowała tryb dla dorosłych
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
OpenAI właśnie straciło jedną z kluczowych osób odpowiedzialnych za politykę bezpieczeństwa. Linn Rodefeld – dyrektorka, która głośno sprzeciwiała się wprowadzeniu "trybu dla dorosłych" w ChatGPT – została zwolniona. Oficjalny powód? Dyskryminacja. Ale prawdziwa historia jest znacznie bardziej skomplikowana.
To nie jest zwykła rozprawa o nieporozumienie w biurze. To sygnał, że wewnątrz OpenAI toczy się ostra walka o to, jak daleko może posunąć się sztuczna inteligencja. I kto ma ostatnie słowo.
ChatGPT, który nie ma żadnych hamulców. Który odpowiada na wszystko – dosłownie wszystko – bez filtrów, bez zastrzeżeń, bez "przepraszam, nie mogę tego zrobić". Właśnie taki miał być "adult mode" – tryb dla dorosłych użytkowników, którzy chcą pełnej swobody w rozmowie z AI.
Brzmi kusząco? Dla części użytkowników na pewno. Problem w tym, że granica między "swobodą wypowiedzi" a "narzędziem do tworzenia szkodliwych treści" jest cholernie cienka. I właśnie o to poszło starcie wewnątrz firmy.
Rodefeld argumentowała, że taka funkcja to otwarta brama dla nadużyć. Że AI bez zabezpieczeń może generować treści nielegalne, manipulacyjne, szkodliwe. Że firma, która stworzyła najbardziej wpływowy chatbot na świecie, nie może udawać, że to "tylko narzędzie" i zrzucać odpowiedzialność na użytkowników.
Część zespołu technicznego miała inne zdanie. Ich argument? Dorośli ludzie powinni mieć prawo do nieocenzurowanej technologii. Że paternalizm – czyli traktowanie użytkowników jak dzieci, które trzeba chronić – to droga donikąd. Że każde narzędzie można użyć źle, ale to nie powód, żeby go nie tworzyć.
Tu robi się naprawdę gęsto. OpenAI twierdzi, że Rodefeld została zwolniona za dyskryminację w miejscu pracy. Nie za sprzeciw wobec "adult mode". Nie za konflikt z innymi działami. Za konkretne zachowania, które firma uznała za niedopuszczalne.
Rodefeld kategorycznie zaprzecza. Mówi wprost: to pretekst. Że prawdziwy powód to jej opór wobec funkcji, którą część zarządu chciała wprowadzić za wszelką cenę. Że zarzut dyskryminacji pojawił się dopiero wtedy, gdy stała się niewygodna.
I tu mamy klasyczny pat. Firma nie może ujawnić szczegółów – prawo pracy chroni prywatność pracowników. Rodefeld nie może przedstawić pełnej dokumentacji – umowa o poufności. Zostają nam tylko przecieki, domysły i oficjalne oświadczenia, które niczego nie wyjaśniają.
Ale jedno jest pewne: timing jest podejrzany. Konflikt wokół "adult mode" trwał miesiącami. Zarzuty pojawiły się nagle, tuż po tym, jak Rodefeld zablokowała kolejną próbę uruchomienia funkcji. Przypadek? Może. Ale w Dolinie Krzemowej takie "przypadki" zdarzają się zbyt często, żeby je ignorować.
To nie pierwszy raz, gdy OpenAI traci kluczowych ludzi przez konflikty wewnętrzne. Pamiętasz drama z Samem Altmanem pod koniec 2024? Zarząd wyrzucił CEO, pracownicy zagrozili masowym odejściem, Altman wrócił w ciągu tygodnia. To był spektakl.
Ale pod powierzchnią tych spektakli toczy się coś znacznie ważniejszego. Walka o to, czym ma być OpenAI. Firmą, która rozwija AI odpowiedzialnie, z myślą o bezpieczeństwie? Czy korporacją, która goni za zyskiem i dominacją rynkową, a etyka jest tylko PR-owym dodatkiem?
Rodefeld reprezentowała pierwszy obóz. Ludzie jak ona wierzą, że AI to nie jest zwykły produkt. Że to technologia, która może zmieniać społeczeństwa, wpływać na wybory, kształtować sposób myślenia milionów ludzi. I że firma, która ją tworzy, ma odpowiedzialność wykraczającą daleko poza akcjonariuszy.
Drugi obóz – nazwijmy ich pragmatykami – twierdzi, że OpenAI musi konkurować. Że jeśli oni nie zrobią "adult mode", zrobi to ktoś inny. Że rynek nie czeka na świętych, tylko na produkty. Że idealizm jest fajny, ale rachunki trzeba płacić.
I teraz zgadnij, który obóz wygrywa. Podpowiedź: nie ten, który mówi o odpowiedzialności.
Możesz pomyśleć: "Dobra, kolejna drama w tech firmie. Co mnie to obchodzi?" Otóż obchodzi cię bardzo.
Bo to, kto wygra tę wewnętrzną wojnę w OpenAI, będzie miało bezpośredni wpływ na narzędzie, którego używasz codziennie. ChatGPT to nie jest zwykła aplikacja – to asystent, który pomaga ci pisać, myśleć, rozwiązywać problemy. Miliony ludzi polegają na nim w pracy, nauce, życiu osobistym.
Jeśli OpenAI zdecyduje się na model "robimy wszystko, co przynosi zysk", zobaczysz więcej funkcji, które brzmi cool, ale niosą realne zagrożenia. Tryb bez filtrów? Świetnie dla kogoś, kto chce pisać odważne powieści. Ale też świetnie dla kogoś, kto chce generować dezinformację na masową skalę.
Jeśli firma zdecyduje się na model "bezpieczeństwo przede wszystkim", możesz spodziewać się więcej ograniczeń, więcej komunikatów "nie mogę tego zrobić", więcej frustracji, gdy AI odmawia pomocy w czymś, co wydaje ci się niewinne.
Nie ma tu łatwych odpowiedzi. Ale warto wiedzieć, że te decyzje nie są techniczne – są polityczne. I że ludzie, którzy je podejmują, mają bardzo różne wizje tego, czym AI powinno być.
Wszyscy skupiają się na dramacie: zwolnienie, zarzuty, konflikt. Ale prawdziwy problem jest głębszy. OpenAI zaczęło jako organizacja non-profit, której celem było stworzenie AI, które będzie służyć całej ludzkości. Teraz to firma warta miliardy dolarów, która musi się rozliczać przed inwestorami.
I tu jest pies pogrzebany. Nie można jednocześnie maksymalizować zysków i stawiać bezpieczeństwo na pierwszym miejscu. To się wyklucza. Każda funkcja, którą blokujesz ze względów etycznych, to potencjalny przychód, którego nie masz. Każde opóźnienie we wprowadzeniu produktu to szansa dla konkurencji.
Rodefeld to wiedziała. Dlatego była niewygodna. Dlatego przypominała, że firma ma misję, która wykracza poza kwartalne raporty. I dlatego – jeśli wierzyć przeciekom – musiała odejść.
To nie jest historia o jednej osobie. To wzorzec, który widzimy w całej branży tech. Ludzie, którzy mówią "stop", którzy pytają "czy na pewno powinniśmy?", którzy przypominają o konsekwencjach – ci ludzie rzadko zostają długo. Bo w środowisku, gdzie tempo rozwoju jest najważniejsze, etyka spowalnia. A spowolnienie kosztuje.
Czy "tryb dla dorosłych" w końcu się pojawi? Prawdopodobnie tak. Może nie pod tą nazwą, może nie w tej formie, ale w jakiejś wersji – tak. Bo presja rynkowa jest zbyt duża. Konkurencyjne firmy już testują modele z mniejszymi ograniczeniami. Użytkownicy głośno domagają się większej swobody.
OpenAI będzie musiało znaleźć jakiś kompromis. Może wprowadzą funkcję z dodatkowymi weryfikacjami wieku. Może z ostrzeżeniami prawnymi na każdym kroku. Może z limitem użycia, żeby nie dało się wykorzystać na masową skalę.
Ale podstawowe pytanie pozostanie bez odpowiedzi: kto decyduje, gdzie są granice? Czy to inżynierowie, którzy budują technologię? Czy to zarząd, który patrzy na liczby? Czy to społeczeństwo, które będzie żyło z konsekwencjami?
Bo póki co decyduje ten, kto ma władzę. A władza w OpenAI wyraźnie przesuwa się w stronę tych, którzy mówią "tak" częściej niż "nie".
Historia Rodefeld to sygnał ostrzegawczy dla wszystkich, którzy śledzą rozwój sztucznej inteligencji. Pokazuje, jak kruche są mechanizmy kontrolne w firmach, które tworzą najbardziej wpływowe technologie naszych czasów.
Nie chodzi o to, czy "adult mode" jest dobry czy zły. Chodzi o to, że decyzje o takich funkcjach powinny być podejmowane transparentnie, z udziałem różnych perspektyw, z uwzględnieniem długoterminowych konsekwencji. A nie w wyniku wewnętrznych wojen, gdzie wygrywa ten, kto ma więcej sojuszników w zarządzie.
Inne firmy AI obserwują tę sytuację bardzo uważnie. Bo to test: czy można sobie pozwolić na głosy sprzeciwu? Czy opłaca się zatrudniać ludzi, którzy będą hamować rozwój w imię bezpieczeństwa? Czy etyka to wartość, czy przeszkoda.
Odpowiedzi, które dadzą na te pytania, ukształtują AI, z którym będziemy żyć przez następne dekady. I na razie te odpowiedzi nie napawają optymizmem.
Rodefeld odeszła. Ale pytania, które zadawała, zostały. I dobrze. Bo ktoś musi je zadawać, nawet jeśli nikt nie chce ich słuchać.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar