Szef działu bezpieczeństwa AI odchodzi, by studiować poezję
Źródło: Link
Źródło: Link
118 lekcji bez kodowania. ChatGPT, Claude, Gemini, automatyzacje. Notatnik AI i AI Coach w cenie.
Szef ochrony w elektrowni jądrowej nagle pakuje manatki i mówi: "Wiecie co? Idę studiować literaturę". Dokładnie to właśnie się stało w świecie AI. Jeden z czołowych ekspertów od bezpieczeństwa sztucznej inteligencji właśnie odszedł z branży, by poświęcić się poezji. Jego uzasadnienie? "Świat jest w niebezpieczeństwie".
To nie jedyny głośny odejście tego tygodnia. Badacz z OpenAI również złożył rezygnację – tym razem w proteście przeciwko decyzji o wprowadzeniu reklam do ChatGPT. Dwa odejścia w jeden tydzień. Przypadek? Nie sądzę.
Branża sztucznej inteligencji przypomina teraz złoty rush w Kalifornii. Wszyscy pędzą, by wykopać jak najwięcej złota, zanim się skończy. Firmy ścigają się w wydawaniu kolejnych modeli. Inwestorzy pompują miliardy dolarów. Politycy obiecują regulacje, których nikt nie rozumie.
A w środku tego całego zamieszania stoją ludzie, którzy faktycznie rozumieją technologię. I coraz częściej mówią: "Stop". Problem w tym, że nikt ich nie słucha.
Kiedy ekspert od bezpieczeństwa AI mówi, że świat jest w niebezpieczeństwie, nie chodzi mu o science fiction. Nie myśli o Terminatorze ani Matrixie. Chodzi o coś bardziej przyziemnego i – paradoksalnie – bardziej niepokojącego. Chodzi o to, że wypuszczamy technologię, której konsekwencji nie rozumiemy. To jak dawać dziecku zapalniczkę i mówić: "Nie martw się, jakoś to będzie".
Odejście do studiowania poezji przypomina ucieczka. Ale może to najrozsądniejsza decyzja, jaką można podjąć, gdy widzisz, że pociąg jedzie wprost na ścianę, a nikt nie chce zaciągnąć hamulca awaryjnego.
W tym samym tygodniu OpenAI ogłosiło, że zaczyna testować reklamy w ChatGPT. Dla większości użytkowników to brzmi niewinnie. "No dobra, reklamy. Netflix ma reklamy, YouTube ma reklamy. Jaki problem?"
Problem jest głębszy. ChatGPT to nie Netflix. To narzędzie, któremu ludzie zadają pytania o zdrowie, finanse, edukację swoich dzieci. To różnica między reklamą przed serialem a reklamą w gabinecie lekarskim.
Pytasz ChatGPT: "Czy powinienem wziąć kredyt hipoteczny?". I system, zamiast dać ci obiektywną odpowiedź, podsuwa ofertę banku, który płaci za reklamę. Albo pytasz o leki na depresję, a dostajesz sponsorowaną odpowiedź od firmy farmaceutycznej.
To nie jest hipotetyczny scenariusz. To dokładnie to, przed czym ostrzegają badacze. I dlatego jeden z nich właśnie odszedł.
OpenAI twierdzi, że reklamy będą "odpowiednio oznaczone" i "nie wpłyną na jakość odpowiedzi". Ale każdy, kto kiedykolwiek widział, jak Google zmieniało wyniki wyszukiwania pod kątem reklamodawców, wie, że to tylko kwestia czasu.
Pamiętasz, jak OpenAI powstało? Organizacja non-profit, której celem było rozwijanie sztucznej inteligencji "dla dobra ludzkości". Sam Altman, CEO firmy, mówił o tym, że AI powinno być dostępne dla wszystkich, nie tylko dla wielkich korporacji.
Szybko do przodu: OpenAI ma teraz strukturę for-profit, wycenę na ponad 150 miliardów dolarów i właśnie wprowadza reklamy. Microsoft zainwestował miliardy i ma wyłączność na technologię. To przypomina "dla dobra ludzkości"?
To klasyczna historia Silicon Valley. Zaczynasz z ideałami, kończysz z modelem biznesowym, który wymaga maksymalizacji zysku. I nagle "bezpieczeństwo AI" staje się problemem, który spowalnia rozwój i denerwuje inwestorów.
Jeden z byłych pracowników OpenAI powiedział niedawno w wywiadzie: "Kiedyś dyskutowaliśmy, jak zbudować AI, które nie zaszkodzi ludzkości. Teraz dyskutujemy, jak sprzedać więcej subskrypcji". To mówi wszystko.
Odejście do studiowania poezji przypomina dziwny wybór. Ale jeśli się zastanowisz, ma w sobie głęboką logikę.
Poezja to sztuka precyzji. Każde słowo ma znaczenie. Każda metafora musi trafiać. To przeciwieństwo tego, jak działa współczesna AI – systemy, które generują miliony słów, nie rozumiejąc żadnego z nich.
Może właśnie dlatego ekspert od AI uciekł do poezji. Bo w poezji forma ma znaczenie. W AI liczy się tylko to, co się sprzedaje.
Jest w tym też element protestu. "Nie chcę być częścią tego wyścigu" – mówi ta decyzja. "Nie chcę pomagać budować technologii, która może zaszkodzić ludziom, bo ktoś chce zarobić kolejny milion".
I szczerze? Szanuję to. W świecie, gdzie wszyscy pędzą do przodu, zatrzymanie się i powiedzenie "nie" wymaga odwagi.
Jeśli eksperci uciekają z branży, co powinniśmy zrobić my, zwykli użytkownicy?
Po pierwsze: przestań ślepo ufać AI. ChatGPT to nie wyrocznia. To narzędzie stworzone przez firmę, która musi zarabiać pieniądze. Jeśli wprowadzają reklamy, będą optymalizować odpowiedzi pod kątem zysku, nie prawdy.
Po drugie: zadawaj pytania. Kiedy widzisz, że AI poleca ci produkt, zapytaj: "Czy to sponsorowane?". Kiedy dostajesz odpowiedź, sprawdź źródła. Nie chodzi o to, że AI kłamie – — chodzi o to, że może być zaprogramowane, by kierować cię w określoną stronę.
Po trzecie: wspieraj alternatywy. Są projekty open-source, które budują AI bez modelu reklamowego. Są organizacje, które walczą o transparentność algorytmów. Nie jesteśmy skazani na świat, w którym każda rozmowa z AI to ukryta reklama.
I najważniejsze: pamiętaj, że technologia nie jest neutralna. Ktoś ją projektuje, ktoś za nią płaci, ktoś na niej zarabia. Pytanie brzmi: kto? I jakie ma intencje.
Kiedy ekspert mówi, że "świat jest w niebezpieczeństwie", łatwo to zbagatelizować. "Pewnie przesadza". "To tylko technologia". "Zawsze się jakoś układało".
Ale potak: te same osoby, które ostrzegały przed problemami z mediami społecznościowymi – uzależnieniem, dezinformacją, polaryzacją – były ignorowane przez lata. Teraz widzimy skutki. Depresja u nastolatków, fake newsy wpływające na wybory, społeczeństwa podzielone bardziej niż kiedykolwiek.
AI to media społecznościowe na sterydach. Jeśli Facebook mógł wpłynąć na wybory przez targetowane reklamy, co zrobi AI, które pisze twoje e-maile, pomaga ci w pracy i odpowiada na każde pytanie.
Nie chodzi o to, że AI nas zniszczy w stylu Terminatora. Chodzi o to, że może nas zmienić w sposób, którego nie zauważymy. Będziemy myśleć, że podejmujemy własne decyzje, podczas gdy algorytm subtelnie nas kieruje. Będziemy wierzyć, że dostajemy obiektywne informacje, podczas gdy dostajemy to, co ktoś chce, żebyśmy zobaczyli.
I to jest niebezpieczeństwo, o którym mówią eksperci. Nie spektakularne. Nie filmowe. Po prostu powolna erozja tego, co czyni nas ludźmi – zdolności do samodzielnego myślenia.
Dwa głośne odejścia w jeden tydzień to nie przypadek. To sygnał. Ludzie, którzy rozumieją technologię najlepiej, mówią nam coś ważnego. Pytanie brzmi: czy będziemy słuchać.
Historia pokazuje, że prawdopodobnie nie. Będziemy ignorować ostrzeżenia, aż stanie się za późno. Potem będziemy się zastanawiać, jak do tego doszło.
Ale może tym razem będzie inaczej. Może wystarczająco dużo osób zada pytania. Może wystarczająco dużo firm zrozumie, że szybki zysk nie jest wart długoterminowych konsekwencji.
A jeśli nie – cóż, zawsze możemy pójść w ślady tego eksperta i zacząć studiować poezję. Przynajmniej wtedy będziemy wiedzieć, że słowa mają znaczenie.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar