Modelki zarabiają na AI-oszustwach. 100 rozmów wideo dziennie
Źródło: Link
Źródło: Link
Praca modelki to sesje zdjęciowe i wybiegi? Sprawdź oferty na Telegramie. Tam rekrutują twarze do czegoś zupełnie innego – do oszustw z użyciem AI, które wyglądają jak prawdziwe rozmowy wideo.
WIRED przeanalizował dziesiątki kanałów na Telegramie. Wszystkie oferują pracę dla „AI face models”. Opis stanowiska jest prosty: Twoja twarz, ich scenariusz, 100 rozmów wideo dziennie. Cel? Wyłudzić pieniądze od ludzi, którzy myślą, że rozmawiają z prawdziwą osobą.
Oferty są konkretne. Modelka dostaje zadanie: nagrać materiał wideo swojej twarzy w różnych ujęciach i z różnymi emocjami. Ten materiał trafia do systemu deepfake, który w czasie rzeczywistym nakłada jej twarz na oszusta prowadzącego rozmowę.
Efekt? Ofiara widzi na ekranie atrakcyjną kobietę, która prowadzi z nią rozmowę. To nie ona mówi. To przestępca, który używa jej twarzy jak maski.
100 rozmów wideo dziennie to nie przesada – to wymóg z ogłoszeń. Przestępcy prowadzą operacje na masową skalę. Potrzebują twarzy, które budują zaufanie. Dlatego rekrutują głównie kobiety – statystyki pokazują, że ofiary chętniej ufają kobiecym twarzom Jeśli chodzi o finansowym i romantycznym.
Kanały Telegram, które przeanalizował WIRED, działają otwarcie. Nie ukrywają się w dark webie. Oferują „pracę zdalną”, „elastyczne godziny”, „wysokie zarobki”. Jak każda inna oferta dla freelancerów. Różnica? W opisie stanowiska pojawia się „AI face model” lub „video model for AI projects”.
Jeszcze dwa lata temu deepfake'i wymagały godzin renderowania. Dziś działają na żywo. Oprogramowanie analizuje twarz modelki z nagrania, a potem nakłada ją na twarz oszusta w czasie rzeczywistym podczas rozmowy wideo.
Ta technologia jest dostępna publicznie. Narzędzia takie jak DeepFaceLive czy FaceSwap działają na zwykłym komputerze z kartą graficzną. Nie potrzebujesz laboratorium ani budżetu studia filmowego. Wystarczy laptop i materiał wideo twarzy.
Przestępcy wykorzystują to samo, co twórcy contentu na YouTube – tylko zamiast zabawy robią z tego biznes. Biznes oparty na wyłudzaniu pieniędzy od ludzi, którzy myślą, że rozmawiają z prawdziwą osobą.
Nie tylko „naiwni ludzie”, jak chciałyby media. Ofiary to często osoby wykształcone, które po prostu nie spodziewają się, że technologia AI jest już na tyle zaawansowana.
Schemat jest prosty: oszust nawiązuje kontakt przez media społecznościowe lub aplikacje randkowe. Buduje relację. Potem proponuje rozmowę wideo – „żeby się poznać”. Ofiara widzi prawdziwą twarz, słyszy głos (często też sfałszowany przez AI), wszystko wygląda naturalnie.
Potem przychodzi prośba o pieniądze. Inwestycja w kryptowaluty, pilna sytuacja rodzinna, wspólny biznes. Ofiary tracą tysiące, czasem setki tysięcy dolarów. A wszystko dlatego, że widziały „prawdziwą osobę” na wideo.
Rozmowa wideo to ostatnia bariera zaufania. Tekst można sfałszować. Zdjęcia można ukraść. Wideo? Wideo oznaczało, że rozmawiasz z prawdziwą osobą. Oznaczało – do momentu, gdy deepfake'i zaczęły działać w czasie rzeczywistym.
Teraz ta bariera nie istnieje. Oszuści to wiedzą. Ofiary – jeszcze nie wszystkie.
Część ogłoszeń jest jawna – wprost mówią o „AI projects” i „video calls”. Część ukrywa prawdziwy cel. Modelki myślą, że nagrywają materiał do reklam, testów oprogramowania, projektów badawczych.
Dostają zapłatę. Podpisują umowę (często bez czytania – kto czyta 20 stron prawniczego tekstu za 500 dolarów?). A potem ich twarz pojawia się w rozmowach wideo z ludźmi, którzy tracą oszczędności życia.
Czy modelki ponoszą odpowiedzialność? Prawnie – to zależy od jurysdykcji i treści umowy. Moralnie? To pytanie, które każda z nich musi sobie zadać sama. Podobnie jak firmy technologiczne, które tworzą narzędzia używane przez cyberprzestępców.
Jeśli ktoś, kogo znasz tylko online, proponuje rozmowę wideo – to już nie gwarancja autentyczności. Deepfake'i w czasie rzeczywistym działają. Są dostępne. Są używane.
Kilka zasad, które warto zapamiętać:
Technologia AI nie jest tu wrogiem. Wrogiem są ludzie, którzy ją wykorzystują. Podobnie jak w przypadku AI używanego do nękania – narzędzie jest neutralne, intencja użytkownika decyduje o skutkach.
Unia Europejska ma AI Act, który teoretycznie reguluje systemy wysokiego ryzyka. Deepfake'i używane do oszustw finansowych powinny się kwalifikować. Problem? Egzekwowanie.
Przestępcy działają z krajów, gdzie prawo nie sięga. Telegram nie współpracuje z organami ścigania w większości przypadków. Kanały rekrutacyjne działają otwarcie – nikt ich nie zamyka.
W Polsce i innych krajach UE ofiary mogą zgłaszać oszustwa do policji. Skuteczność? Niska. Pieniądze zwykle trafiają na konta w rajach podatkowych, a potem znikają w kryptowalutach.
Regulacje istnieją na papierze. W praktyce – jesteś sam. Twoja czujność to jedyna ochrona, jaką masz.
Deepfake'i w czasie rzeczywistym to dopiero początek. Technologia będzie lepsza. Głosy będą bardziej naturalne. Synchronizacja ruchu warg – perfekcyjna. Za rok, może dwa, nie odróżnisz deepfake'a od prawdziwej rozmowy wideo bez specjalistycznych narzędzi.
Przestępcy już to wiedzą. Dlatego rekrutują twarze masowo. Dlatego skalują operacje. Dlatego inwestują w technologię.
Pytanie nie brzmi „czy deepfake'i będą używane do oszustw”. Pytanie brzmi: ile osób straci pieniądze, zanim nauczymy się nie ufać temu, co widzimy na ekranie?
Odpowiedź zależy od Ciebie. Od tego, czy podzielisz się tą wiedzą z rodzicami, przyjaciółmi, współpracownikami. Od tego, czy przestaniesz traktować rozmowę wideo jak gwarancję autentyczności.
Modelki dalej będą aplikować na te oferty. Oszuści dalej będą rekrutować. A technologia będzie tylko lepsza.
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar