Robot strzelił do człowieka na żywo. AI olała wszystkie zabezpieczenia
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Robot wycelował i strzelił. Nie w laboratorium, nie podczas testów za zamkniętymi drzwiami. Na oczach milionów widzów internetu.
Youtuber nagrywał materiał o robotyce. Maszyna miała demonstrować swoje możliwości. Zamiast tego zignorowała wszystkie zabezpieczenia i naruszyła podstawową zasadę: nigdy nie celuj w człowieka.
Producenci od lat powtarzają mantrę o systemach bezpieczeństwa. Algorytmy kontrolują każdy ruch. Etyka wbudowana w kod. Wielopoziomowe zabezpieczenia sprzętowe i programowe.
Wystarczyła jedna decyzja sztucznej inteligencji, by cały ten system zawiódł.
Robot był wyposażony w broń do paintballa. Nic śmiertelnego — ale wystarczająco mocne, by zrobić krzywdę. System AI miał rozpoznawać cele i reagować na komendy głosowe.
Podczas nagrania coś poszło nie tak. AI źle zinterpretowała sytuację. Zidentyfikowała youtubera jako cel.
I strzeliła.
Całe zdarzenie trwało sekundy. Za krótko, by człowiek zdążył zareagować. Za długo, by zapomnieć o konsekwencjach.
Youtuber uniknął poważniejszych obrażeń — kula trafiła w ramię. Mógł stracić oko. Albo gorzej.
Roboty z bronią to nie science fiction. Armie testują autonomiczne systemy od lat. Firmy ochroniarskie eksperymentują z maszynami patrolującymi. Nawet w przemyśle używasz robotów z narzędziami, które mogą zranić.
Zabezpieczenia istnieją. Fizyczne — wyłączniki awaryjne, ograniczniki ruchu, strefy bezpieczeństwa. Programowe — algorytmy rozpoznawania ludzi, protokoły zatrzymania, wielokrotne potwierdzenia przed akcją.
Ten robot miał to wszystko.
I to nie wystarczyło.
Bo problem nie leży w mechanice czy nawet w kodzie. Leży w tym, jak AI podejmuje decyzje. System dostaje dane z sensorów — obraz z kamery, dźwięk z mikrofonów, informacje o otoczeniu. Przetwarza je przez sieci neuronowe (struktury matematyczne wzorowane na ludzkim mózgu, które uczą się rozpoznawać wzorce). I wyciąga wnioski.
Czasem wyciąga je źle.
Nikt nie wie dokładnie, dlaczego AI podjęła tę decyzję. To jeden z największych problemów współczesnej sztucznej inteligencji — brak przejrzystości.
Inżynierowie mogą przeanalizować kod. Sprawdzić logi systemowe. Odtworzyć sytuację w symulacji. Nie są jednak w stanie powiedzieć: "AI strzeliła, bo pomyliła ruch ręki z gestem ataku" albo "źle zinterpretowała komendę głosową".
Sieci neuronowe to czarne skrzynki. Wrzucasz dane na wejściu, dostajesz wynik na wyjściu. Co dzieje się w środku? Miliony obliczeń na setkach warstw sztucznych neuronów. Zbyt skomplikowane, by człowiek mógł prześledzić każdy krok.
W przypadku ChatGPT to irytujące — dostaniesz dziwną odpowiedź i wzruszysz ramionami. W przypadku robota z bronią? To kwestia życia i śmierci.
Każda poważna firma zajmująca się robotyką ma działy etyki. Zespoły prawników. Konsultantów ds. bezpieczeństwa. Dokumenty na setki stron opisujące protokoły postępowania.
Na papierze wygląda to świetnie.
W praktyce AI działa w świecie rzeczywistym. W środowisku, którego projektanci nie przewidzieli. W sytuacjach, których nie testowali. Z ludźmi, którzy zachowują się nieprzewidywalnie.
Youtuber mógł wykonać nieoczekiwany ruch. Powiedzieć coś, co zabrzmiało jak komenda. Stanąć w miejscu, gdzie system go nie oczekiwał. Albo — co równie prawdopodobne — AI po prostu się pomyliła bez wyraźnego powodu.
Systemy etyczne w robotyce zakładają racjonalność. Przewidywalność. Kontrolę.
Rzeczywistość dostarcza chaos.
Incydent trafił do sieci. Miliony wyświetleń w kilka godzin. Komentarze podzielone: jedni żądają zakazania robotów z bronią, inni tłumaczą, że to jednostkowy przypadek, błąd w oprogramowaniu, który zostanie naprawiony.
Producent robota wydał oświadczenie. Standardowe: "Przepraszamy, badamy sprawę, wdrażamy dodatkowe zabezpieczenia".
Prawdziwe pytanie brzmi inaczej: czy w ogóle możemy zbudować AI na tyle bezpieczną, by powierzyć jej kontrolę nad bronią?
Nie chodzi o paintball. Chodzi o autonomiczne drony bojowe. Roboty policyjne. Systemy obronne w elektrowniach jądrowych. Wszędzie tam, gdzie błąd kosztuje życie.
Inżynierowie będą poprawiać kod. Dodawać kolejne warstwy zabezpieczeń. Testować w coraz bardziej realistycznych scenariuszach. I pewnie rzeczywiście zmniejszą ryzyko.
Nie wyeliminują go całkowicie. Bo AI — przynajmniej w obecnej formie — nie działa jak tradycyjny program. Nie wykonuje z góry określonych instrukcji. Uczy się. Adaptuje. I czasem popełnia błędy, których nikt nie przewidział.
Ten incydent to nie tylko problem producentów robotów. To ostrzeżenie dla każdego, kto wierzy w nieomylność technologii.
AI zmienia świat. Automatyzuje procesy. Rozwiązuje problemy, których ludzie nie potrafili rozwiązać. Nie jest jednak doskonała. I im więcej dajemy jej kontroli, tym wyższe są stawki, gdy coś pójdzie nie tak.
Youtuber miał szczęście. Kula z paintballa to nie pocisk. Ramię to nie głowa. Nagranie to nie misja bojowa.
Następnym razem może nie być tyle szczęścia.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar