System AI w szkole pomylił chipsy Doritos z bronią palną
Źródło: Link
Źródło: Link
Idziesz korytarzem szkolnym z paczką chipsów. Nagle otaczają Cię funkcjonariusze ochrony. Ktoś Cię przeszukuje, zakuwają Cię w kajdanki – a Ty nie masz pojęcia, co się dzieje. To nie scenariusz absurdalnego filmu. To rzeczywistość ucznia z Baltimore County w stanie Maryland, którego system bezpieczeństwa oparty na AI uznał za zagrożenie.
Incydent miał miejsce w październiku 2025 roku w jednym z tamtejszych liceów. Szkoła wdrożyła automatyczny system monitoringu wykorzystujący sztuczną inteligencję do wykrywania broni palnej. Zamiast zwiększyć bezpieczeństwo, technologia wywołała sytuację, która stawia pytania o to, czy takie rozwiązania są w ogóle gotowe do pracy w prawdziwym świecie.
System AI zainstalowany w szkole analizował obraz z kamer monitoringu. Jego zadanie? Automatyczne rozpoznawanie broni. Kiedy uczeń przechodził z paczką chipsów Doritos, algorytm oznaczył ją jako możliwą broń palną i uruchomił alarm.
Konsekwencje przyszły natychmiast. Nastolatek został zatrzymany, zakuty w kajdanki i przeszukany przez personel ochrony. Całe zajście mogło być traumatyczne dla ucznia, który nie zrobił nic złego (chyba że jedzenie w niedozwolonym miejscu to już przestępstwo).
To nie pierwszy raz, gdy AI zawodzi w bezpieczeństwie publicznym. Systemy rozpoznawania obiektów mają trudności z rozróżnieniem przedmiotów o podobnych kształtach – zwłaszcza przy zmiennym oświetleniu i różnych kątach widzenia.
Paczka chipsów w plecaku lub ręce może rzeczywiście przypominać kształtem broń krótką. Szczególnie dla algorytmu wytrenowanego na ograniczonym zbiorze danych. Problem? W środowisku szkolnym setki osób noszą plecaki, torby i różne przedmioty. Ryzyko fałszywych alarmów jest ogromne.
Przypadek z Maryland to ostrzeżenie dla instytucji edukacyjnych planujących wdrożenie systemów AI do monitoringu. Technologia wykrywania obiektów wciąż wymaga ludzkiej weryfikacji. Automatyzacja bez odpowiedniego nadzoru prowadzi do niepotrzebnych interwencji i traumatycznych doświadczeń dla niewinnych osób.
Szkoły muszą znaleźć równowagę między bezpieczeństwem a prywatnością uczniów. Muszą też uwzględnić psychologiczny wpływ fałszywych alarmów. Młody człowiek zatrzymany i przeszukany przed rówieśnikami za posiadanie przekąski? To nie tylko wstydliwa sytuacja. To potencjalnie trwały uraz.
Historia z Doritos pokazuje fundamentalny problem: systemy AI trenowane w kontrolowanych warunkach często zawodzą w chaosie prawdziwego życia. Różnorodność obiektów, które uczniowie noszą do szkoły, wymaga niezwykłej precyzji algorytmu. A obecna technologia jeszcze tam nie dotarła.
Zanim szkoły masowo wdrożą takie rozwiązania, producenci muszą drastycznie poprawić dokładność swoich systemów. A do tego czasu? Może warto postawić na tradycyjny monitoring z ludźmi podejmującymi ostateczne decyzje.
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar