Miliony kamer dostały mózg. Swann łączy IoT z AI od Amazona
Źródło: Link
Źródło: Link
90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.
Swann Communications wdrożył sztuczną inteligencję w milionach kamer i czujników rozsianych po całym świecie. To codzienność od kilku miesięcy. Ale prawdziwa historia nie jest w samej technologii – tylko w tym, jak rozwiązali problem, który dręczył branżę IoT od lat.
Problem wyglądał tak: masz miliony urządzeń wysyłających powiadomienia. Kot przechodzi przez ogród? Alert. Liść spada z drzewa? Alert. Kurier zostawia paczkę? Alert. Włamywacz otwiera okno? Alert. Wszystko brzmi tak samo. Użytkownicy po tygodniu wyłączają powiadomienia całkowicie.
Swann postanowił to zmienić używając Amazon Bedrock – platformy, która daje dostęp do różnych modeli AI bez budowania własnej infrastruktury. To jak wynajęcie mózgu zamiast budowania własnego od zera.
Internet rzeczy (IoT – Internet of Things) to wszystkie urządzenia podłączone do sieci. Kamery, czujniki ruchu, dzwonki do drzwi, termostaty. W 2026 roku mamy ich już ponad 30 miliardów na świecie. Każde z nich generuje dane. Dużo danych.
Tradycyjne podejście polegało na prostych regułach: ruch wykryty = wyślij powiadomienie. Temperatura spadła poniżej 5 stopni = wyślij alert. Zero inteligencji. Zero kontekstu. Efekt? Ludzie dostawali dziesiątki bezużytecznych alertów dziennie i przestawali zwracać uwagę na wszystkie – włącznie z tymi naprawdę ważnymi.
Próby dodania AI kończyły się katastrofą kosztową. Przetwarzanie każdego obrazu z kamery przez model AI kosztowało krocie. Firma z milionem aktywnych urządzeń mogła spalić budżet IT w tydzień. Swann szukał rozwiązania, które będzie działać w skali – miliony urządzeń, miliardy zdarzeń miesięcznie, rozsądne koszty.
I tu pojawia się Amazon Bedrock. To nie jest jeden model AI – to platforma dająca dostęp do wielu modeli od różnych producentów. Claude od Anthropic, modele Amazon Titan, Llama od Meta. Wszystko w jednym miejscu, płatność za rzeczywiste użycie, bez inwestowania w serwery i infrastrukturę.
Swann stanął przed pytaniem: który model wybrać? Mieli do dyspozycji kilkanaście opcji, każda z innymi mocnymi stronami. Claude świetnie rozumie kontekst i niuanse. Titan jest szybki i tani. Llama działa offline. Wybór modelu to jak wybór narzędzia – młotek do gwoździa, śrubokręt do śruby.
Zespół przeprowadził serię testów. Wzięli tysiące rzeczywistych zdarzeń z kamer: koty, psy, kurierzy, włamywacze, cienie, refleksy słońca, przejeżdżające samochody. Każdy model przetwarzał te same dane. Wyniki? Zaskakujące.
Okazało się, że jeden model nie wystarcza. Do szybkiej wstępnej analizy – prosty, tani model sprawdzający czy w ogóle coś istotnego się dzieje. Jeśli tak, dopiero wtedy włącza się ciężkie działo – bardziej zaawansowany model analizujący szczegóły.
Konkretnie: pierwszy model (szybki, tani) sprawdza czy na obrazie jest człowiek. Jeśli nie – koniec analizy, koszt: ułamek centa. Jeśli tak – drugi model sprawdza czy to właściciel domu, kurier, czy nieznana osoba. Dopiero wtedy użytkownik dostaje powiadomienie z kontekstem: "Nieznana osoba przy tylnych drzwiach" zamiast generycznego "Wykryto ruch".
Techniczne wyzwanie było brutalne. Miliony kamer. Każda może wygenerować alert w dowolnym momencie. Wszystkie jednocześnie o 18:00 gdy ludzie wracają z pracy. System musi przetworzyć to wszystko w czasie rzeczywistym, nie może się zawiesić, nie może zgubić żadnego alertu.
Swann zbudował architekturę opartą o kolejki. Każde zdarzenie z kamery trafia do kolejki – to jako taśmę produkcyjną w fabryce. Zdarzenia czekają w kolejce, a procesory AI ściągają je jedno po drugim, analizują i zwracają wynik. Jeśli nagle przychodzi ich tysiąc – kolejka się wydłuża, ale nic nie ginie.
Amazon Bedrock obsługuje to automatycznie. Gdy ruch wzrasta, platforma uruchamia więcej instancji modeli. Gdy spada – wyłącza niepotrzebne. Płacisz tylko za faktyczne przetwarzanie.
Kluczowa optymalizacja: cache'owanie wyników. Jeśli kamera przez 10 minut widzi tę samą scenę (pusty ogród), system nie analizuje każdej klatki od nowa. Zapamiętuje: "to już widziałem, nic się nie zmieniło". Dopiero gdy obraz się zmienia – włącza się analiza. Proste? Tak. Skuteczne? Redukcja kosztów o 70%.
Matematyka była prosta i przerażająca jednocześnie. Milion aktywnych kamer. Średnio 50 zdarzeń dziennie na kamerę. To 50 milionów zdarzeń dziennie. Gdyby każde przetwarzać pełnym modelem AI – koszt wynosiłby setki tysięcy dolarów miesięcznie. Nie do utrzymania.
Strategia wielopoziomowa zmieniła wszystko. Pierwszy poziom (detekcja podstawowa) kosztuje 0.0001 dolara za zdarzenie. Drugi poziom (analiza zaawansowana) włącza się tylko dla 5% zdarzeń i kosztuje 0.001 dolara. Matematyka: 50 milionów × 0.0001 = 5000 dolarów + 2.5 miliona × 0.001 = 2500 dolarów. Razem: 7500 dolarów miesięcznie zamiast setek tysięcy.
Ale to nie koniec optymalizacji. Swann zauważył wzorce czasowe. W nocy zdarzenia są rzadsze ale potencjalnie ważniejsze. W dzień – więcej ruchu ale głównie niegroźnego. System automatycznie dostosowuje poziom czułości. Nocą każde wykrycie człowieka trafia do drugiego poziomu analizy. W dzień – tylko jeśli osoba zbliża się do drzwi.
Kolejna sztuczka: uczenie się z feedbacku użytkowników. Gdy ktoś oznacza powiadomienie jako "fałszywy alarm", system zapamiętuje kontekst. Następnym razem w podobnej sytuacji będzie bardziej ostrożny. To nie jest pełne uczenie maszynowe – to proste reguły bazujące na statystykach, ale działają znakomicie.
Anna kupiła system Swann pół roku temu. Pierwszego dnia dostała 47 powiadomień. Kot, cienie, samochody sąsiadów, liście. Po tygodniu wyłączyła wszystko. Typowa historia.
Miesiąc temu Swann wdrożył update z Amazon Bedrock. Anna dostała e-mail: "Twój system jest teraz inteligentniejszy". Włączyła powiadomienia ponownie, sceptycznie. Pierwszego dnia: trzy powiadomienia. "Kurier przy drzwiach wejściowych". "Nieznany samochód na podjeździe". "Twój syn wrócił ze szkoły". Wszystkie trafne. Zero fałszywych alarmów.
Tydzień później, o 3 w nocy: "ALERT: Nieznana osoba przy oknie sypialni". Anna sprawdziła kamerę – rzeczywiście, ktoś próbował otworzyć okno. Zadzwoniła na policję. Włamywacz uciekł, ale został nagrany. Policja złapała go dwa dni później.
To różnica między systemem który krzyczy wilka codziennie a systemem który mówi tylko wtedy, gdy naprawdę coś się dzieje. Pierwsze ignorujesz. Drugiemu ufasz.
Swann używa kilku modeli w zależności od typu zdarzenia. Dla obrazów – Claude Haiku 4.5 (szybki, tani) do wstępnej analizy i Claude Sonnet 4.6 do szczegółowej. Dla analizy dźwięku – Amazon Titan. Dla tekstowej analizy logów – Llama 4 Scout.
Każde urządzenie ma lokalny procesor wykonujący podstawową detekcję ruchu. To oszczędza przepustowość – do chmury trafiają tylko potencjalnie istotne zdarzenia. W chmurze AWS Lambda (funkcje uruchamiane na żądanie) odbiera zdarzenie, wywołuje odpowiedni model przez Bedrock, przetwarza odpowiedź i wysyła powiadomienie przez AWS SNS (Simple Notification Service).
Cały pipeline od wykrycia ruchu do powiadomienia na telefonie: średnio 1.2 sekundy. W przypadkach krytycznych (potencjalne zagrożenie) – priorytetyzacja redukuje to do 0.4 sekundy. Wystarczająco szybko by zareagować, wystarczająco wolno by nie kosztować fortuny.
Dane są przechowywane przez 30 dni w Amazon S3 (magazyn danych w chmurze). Modele AI nie uczą się na danych użytkowników – to byłoby naruszenie prywatności. Używają gotowych modeli trenowanych przez Amazon i Anthropic na ogólnodostępnych danych. Twoje nagrania pozostają twoje.
Swann to dopiero początek. Każde urządzenie IoT może skorzystać z podobnego podejścia. Termostaty mogące przewidzieć kiedy będziesz potrzebować ogrzewania. Lodówki które zauważają że kończy się mleko zanim je skończysz. Zamki które rozpoznają członków rodziny bez kluczy.
Kluczowa zmiana: AI nie musi być droga ani skomplikowana. Amazon Bedrock, Google Vertex AI, Azure AI – wszystkie platformy oferują podobne możliwości. Płacisz za użycie, nie za infrastrukturę. To demokratyzuje dostęp – mała firma może wdrożyć AI w swoich produktach bez zatrudniania zespołu data scientists.
Swann udowodnił że skalowanie AI do milionów urządzeń jest możliwe i opłacalne. Ich doświadczenia pokazują drogę innym: wybieraj odpowiednie modele do zadania, optymalizuj agresywnie, testuj na prawdziwych danych, ucz się z feedbacku użytkowników.
Za rok większość nowych urządzeń IoT będzie miała wbudowaną inteligencję. Za dwa lata będziemy się dziwić że kiedyś kamery wysyłały alerty za każdym razem gdy liść spadł z drzewa. To już nie jest przyszłość – to teraźniejszość, która właśnie staje się standardem.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar