AI wzięło flet za broń i zamknęło szkołę: druga wpadka
Źródło: Link
Źródło: Link
90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.
Szkoła w USA została zamknięta. Powód? System AI rozpoznawania broni wziął instrument muzyczny za karabin. To już druga głośna wpadka tej technologii w ciągu kilku miesięcy.
To przypomina żart, ale niestety nie jest.
Uczeń szedł do szkoły z futerałem na instrument. System monitoringu oparty na sztucznej inteligencji – którego zadaniem jest wykrywanie broni palnej – uznał, że to karabin.
Alarm. Lockdown. Cała szkoła zamknięta.
Nikt nie ucierpiał, co oczywiście najważniejsze. Incydent pokazuje jednak coś niepokojącego: technologia, która ma chronić, potrafi sparaliżować normalne życie przez błąd w interpretacji obrazu.
I nie jest to pierwszy raz.
Kilka miesięcy wcześniej ten sam system – lub podobny – doprowadził do zatrzymania ucznia przez policję. Powód? Jadł chipsy Doritos na terenie szkoły.
AI wzięło pomarańczową paczkę za pistolet.
Policja przyjechała. Uczeń został przesłuchany. Doritos skonfiskowano (prawdopodobnie zjedzone podczas dochodzenia). Dla dzieciaka i jego rodziców to był realny stres, choć cała sytuacja wyglądała absurdalnie.
Problem w tym, że te systemy działają na zasadzie rozpoznawania wzorców w obrazie. Algorytm został wytrenowany na tysiącach zdjęć broni – ale też na tysiącach zdjęć rzeczy, które broń przypominają. I tu zaczyna się problem.
System nie rozumie kontekstu. Nie wie, że uczeń idzie na lekcję muzyki. Nie wie, że Doritos to przekąska, a nie karabin.
Widzi kształt. Kolor. Proporcje.
Futerał na flet? Długi, cylindryczny, ciemny – podobny do profilu broni długiej. Dla algorytmu to wystarczający sygnał, by podnieść alarm. Paczka chipsów w dłoni? Pomarańczowa, kontrastowa, trzymana w sposób przypominający chwyt – znowu czerwona flaga.
To nie kwestia "głupiej" AI. To kwestia tego, jak te systemy są projektowane i wdrażane.
Producenci systemów AI do wykrywania broni twierdzą, że lepiej dmuchać na zimne. Lepiej dziesięć fałszywych alarmów niż jeden przeoczony pistolet.
Logika ma sens. W praktyce oznacza to jednak:
Jeśli system krzyczy "wilk!" co drugi dzień, ludzie przestają reagować. I to jest chyba największe ryzyko.
W USA problem przemocy z użyciem broni w szkołach jest realny. Strzelaniny w placówkach edukacyjnych to nie abstrakcja – to coś, co rodzice i nauczyciele biorą pod uwagę planując dzień.
Dlatego szkoły inwestują w technologie bezpieczeństwa. Kamery z AI mają być odpowiedzią – szybszą niż ludzka reakcja, działającą 24/7, bez zmęczenia i bez błędu ludzkiego.
Tylko że AI ma swoje błędy. I są one inne niż ludzkie.
Człowiek może przeoczyć broń, bo był rozkojarzony. AI przeoczy broń, bo ktoś niósł ją w nietypowy sposób, którego algorytm nie widział podczas treningu. Człowiek może zareagować na chipsy, bo jest nadgorliwy. AI zareaguje na chipsy, bo statystycznie kształt pasuje do wzorca.
Te incydenty to nie argument przeciwko AI w bezpieczeństwie. To argument za lepszym projektowaniem systemów.
AI w monitoringu może działać – ale nie jako jedyny decydent. Potrzebny jest człowiek w pętli (ang. human in the loop), ktoś kto zweryfikuje alarm przed uruchomieniem procedur.
Problem? To kosztuje. I spowalnia reakcję.
Szkoły chcą systemu, który działa automatycznie. Producenci sprzedają wizję pełnej automatyzacji. A rzeczywistość pokazuje, że technologia jeszcze nie dojrzała do samodzielnych decyzji w tak krytycznych sytuacjach.
To nie problem tylko szkół. Każda branża wdrażająca AI do podejmowania decyzji w czasie rzeczywistym stanie przed tym samym dylematem:
Czy pozwolić algorytmowi działać autonomicznie (szybko, ale z ryzykiem błędu)?
Czy wymagać weryfikacji ludzkiej (wolniej, ale bezpieczniej)?
Odpowiedź zależy od kontekstu. W reklamach online? Fałszywy alarm to drobnostka. W systemach bezpieczeństwa? Fałszywy alarm może sparaliżować instytucję lub – gorzej – sprawić, że prawdziwe alarmy będą ignorowane.
Szkoły w USA prawdopodobnie nie zrezygnują z AI w monitoringu. Presja społeczna i polityczna jest zbyt duża. Incydenty z fletem i Doritosami zmuszą (miejmy nadzieję) do przemyślenia protokołów.
Może to będzie oznaczać więcej warstw weryfikacji. Może lepsze treningi algorytmów – z większą ilością "fałszywych pozytywów" w danych uczących. Może zmianę filozofii: AI jako wsparcie dla człowieka, nie zamiennik.
Bo na razie mamy system, który zamyka szkoły przez futerał na flet.
I to nie jest przyszłość, którą ktokolwiek sobie wyobrażał.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar