Robotyka
Robotyka · 2 min czytania · 26 października 2025

System AI w szkole pomylił chipsy Doritos z bronią palną

High school’s AI security system confuses Doritos bag for a possible firearm | TechCrunch

Źródło: Link

Idziesz korytarzem szkolnym z paczką chipsów. Nagle otaczają Cię funkcjonariusze ochrony. Ktoś Cię przeszukuje, zakuwają Cię w kajdanki – a Ty nie masz pojęcia, co się dzieje. To nie scenariusz absurdalnego filmu. To rzeczywistość ucznia z Baltimore County w stanie Maryland, którego system bezpieczeństwa oparty na AI uznał za zagrożenie.

Incydent miał miejsce w październiku 2025 roku w jednym z tamtejszych liceów. Szkoła wdrożyła automatyczny system monitoringu wykorzystujący sztuczną inteligencję do wykrywania broni palnej. Zamiast zwiększyć bezpieczeństwo, technologia wywołała sytuację, która stawia pytania o to, czy takie rozwiązania są w ogóle gotowe do pracy w prawdziwym świecie.

Algorytm wziął paczkę Doritos za pistolet

System AI zainstalowany w szkole analizował obraz z kamer monitoringu. Jego zadanie? Automatyczne rozpoznawanie broni. Kiedy uczeń przechodził z paczką chipsów Doritos, algorytm oznaczył ją jako możliwą broń palną i uruchomił alarm.

Konsekwencje przyszły natychmiast. Nastolatek został zatrzymany, zakuty w kajdanki i przeszukany przez personel ochrony. Całe zajście mogło być traumatyczne dla ucznia, który nie zrobił nic złego (chyba że jedzenie w niedozwolonym miejscu to już przestępstwo).

Dlaczego systemy wizyjne generują fałszywe alarmy

To nie pierwszy raz, gdy AI zawodzi w bezpieczeństwie publicznym. Systemy rozpoznawania obiektów mają trudności z rozróżnieniem przedmiotów o podobnych kształtach – zwłaszcza przy zmiennym oświetleniu i różnych kątach widzenia.

Paczka chipsów w plecaku lub ręce może rzeczywiście przypominać kształtem broń krótką. Szczególnie dla algorytmu wytrenowanego na ograniczonym zbiorze danych. Problem? W środowisku szkolnym setki osób noszą plecaki, torby i różne przedmioty. Ryzyko fałszywych alarmów jest ogromne.

Lekcja dla szkół rozważających AI w ochronie

Przypadek z Maryland to ostrzeżenie dla instytucji edukacyjnych planujących wdrożenie systemów AI do monitoringu. Technologia wykrywania obiektów wciąż wymaga ludzkiej weryfikacji. Automatyzacja bez odpowiedniego nadzoru prowadzi do niepotrzebnych interwencji i traumatycznych doświadczeń dla niewinnych osób.

Szkoły muszą znaleźć równowagę między bezpieczeństwem a prywatnością uczniów. Muszą też uwzględnić psychologiczny wpływ fałszywych alarmów. Młody człowiek zatrzymany i przeszukany przed rówieśnikami za posiadanie przekąski? To nie tylko wstydliwa sytuacja. To potencjalnie trwały uraz.

Czy AI radzi sobie w rzeczywistych warunkach?

Historia z Doritos pokazuje fundamentalny problem: systemy AI trenowane w kontrolowanych warunkach często zawodzą w chaosie prawdziwego życia. Różnorodność obiektów, które uczniowie noszą do szkoły, wymaga niezwykłej precyzji algorytmu. A obecna technologia jeszcze tam nie dotarła.

Zanim szkoły masowo wdrożą takie rozwiązania, producenci muszą drastycznie poprawić dokładność swoich systemów. A do tego czasu? Może warto postawić na tradycyjny monitoring z ludźmi podejmującymi ostateczne decyzje.

Źródła

Informacje o artykule

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.