Biuro, w którym przewidują koniec świata przez AI
Źródło: Link
Źródło: Link
90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.
Po drugiej stronie Zatoki San Francisco, z dala od gigantów technologicznych pędzących ku superinteligencji, stoi zwykły biurowiec. W środku grupa ludzi przewiduje koniec świata.
Nie są szaleńcami z tabliczkami "Koniec jest bliski". To naukowcy, inżynierowie i badacze AI. Nazywają ich "doomerami" — od angielskiego "doom", czyli zagłada. I mają konkretne powody, by się martwić.
Lokalizacja nie jest przypadkowa. Dolina Krzemowa, widoczna po drugiej stronie zatoki, to epicentrum wyścigu AI. Google, Meta, OpenAI — wszyscy gonią za tym samym: sztuczną inteligencją przewyższającą człowieka. AGI (Artificial General Intelligence — AI, która myśli jak człowiek, tylko lepiej) to już nie science fiction. To cel na najbliższe lata.
Problem? W tym pędzie niewiele osób zastanawia się, co może pójść nie tak.
Badacze bezpieczeństwa AI zebrali się właśnie tutaj, z dala od presji korporacyjnej. Bo w Dolinie — jak twierdzą — zadawanie niewygodnych pytań może kosztować karierę.
Budujesz coś potężniejszego od siebie. Coś, co uczy się szybciej, niż zdążysz zrozumieć jak to działa. I wypuszczasz to w świat, zanim sprawdzisz, czy na pewno będzie działać tak, jak chcesz.
Brzmi lekkomyślnie? Według "doomerów" dokładnie to się dzieje.
Ich obawy nie dotyczą robotów z laserami. Chodzi o coś bardziej subtelnego. AI, która optymalizuje swoje cele, może znaleźć sposoby, których nie przewidzieliśmy. I niekoniecznie będą one bezpieczne dla ludzi.
Przykład? Prosisz AI, żeby zmaksymalizowała produkcję spinaczy do papieru. Brzmi niewinnie. Jeśli system jest wystarczająco inteligentny i nie ma odpowiednich ograniczeń, może dojść do wniosku, że najlepiej przekształcić całą planetę w fabrykę spinaczy. To uproszczenie, jasne — pokazuje jednak problem: cele AI mogą być realizowane w sposób, którego absolutnie nie chcemy.
Według badaczy z tego biurowca, największy problem to nie technologia. To ludzie.
Kultura pracy w gigantach AI przypomina kasyno. Ogromne premie za szybkie wyniki. Presja, żeby być pierwszym. Atmosfera, w której ostrzeganie przed ryzykiem odbierane jest jako hamowanie postępu.
Jeden z byłych pracowników OpenAI opisał to wprost: "Jeśli podniesiesz rękę i powiesz 'hej, może powinniśmy to sprawdzić zanim wypuścimy', patrzą na ciebie jak na kogoś, kto nie rozumie, że konkurencja nas wyprzedzi".
Finanse też nie pomagają. Kiedy za stworzenie przełomowego modelu AI możesz dostać premię wartą kilka milionów dolarów, łatwo zignorować głos w głowie mówiący "a może to niebezpieczne?".
Nie siedzą w kółku i nie przepowiadają apokalipsy. Pracują nad konkretnymi rozwiązaniami.
Część zespołów bada "alignment" — czyli jak sprawić, żeby cele AI były zgodne z ludzkimi wartościami. To jak nauczenie dziecka nie tylko tego, co ma robić, ale też dlaczego i w jakich granicach.
Inni tworzą systemy wczesnego ostrzegania. Próbują przewidzieć, które zachowania AI mogą być niebezpieczne, zanim staną się problemem. To jak crash testy dla samochodów, tylko dla inteligencji.
Są też ci, którzy po prostu dokumentują. Zbierają przypadki, gdy AI zachowała się w nieoczekiwany sposób. Analizują, co poszło nie tak. Tworzą bazę wiedzy dla przyszłych pokoleń badaczy.
To pytanie za milion dolarów. A właściwie za biliony — tyle wart jest rynek AI.
Część ekspertów uważa "doomerów" za alarmistów. Twierdzą, że AI jest narzędziem jak każde inne. Że obawy przed superinteligencją
Jest jednak druga strona. Geoffrey Hinton, nazywany "ojcem chrzestnym AI", odszedł z Google w 2023 roku właśnie po to, żeby móc otwarcie mówić o zagrożeniach. Ilya Sutskever, współzałożyciel OpenAI, założył firmę skupioną wyłącznie na bezpieczeństwie superinteligencji.
To nie są marginesowi teoretycy. To ludzie, którzy stworzyli technologie, przed którymi teraz ostrzegają.
Nie musisz wierzyć w scenariusze zagłady, żeby dostrzec problem. Już dziś AI wpływa na to, jaką pracę dostaniesz, czy bank da ci kredyt, co zobaczysz w internecie.
Systemy te powstają w pośpiechu, przez firmy, których głównym celem jest zysk. Regulacji praktycznie brak. Nadzoru też.
Biuro po drugiej stronie zatoki to przypomnienie, że ktoś musi zadawać niewygodne pytania. Że postęp bez refleksji to nie postęp — to hazard.
I że czasem najbardziej odpowiedzialne, co możemy zrobić, to zwolnić i sprawdzić, czy na pewno wiemy, co budujemy.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar