100 rozmów wideo dziennie. Tak powstają deepfake'owe oszustwa
Źródło: Link
Źródło: Link
"Moja praca polega na siedzeniu przed kamerą przez 8 godzin dziennie. Robię różne miny, gestykuluję, czasem czytam tekst. Nawet do 100 rozmów wideo dziennie" – mówi jeden z "modeli AI" w reportażu Computer Hoy.
To nie casting do filmu. To produkcja materiału dla oszustów.
Media skupiają się na efektach deepfake – fałszywych wideo celebrytów czy polityków. Nikt nie mówi o ludziach, którzy dostarczają surowiec do tych oszustw. A to właśnie oni są pierwszym ogniwem w łańcuchu, który kosztuje ofiary setki tysięcy dolarów.
Proces jest prosty i przerażająco wydajny. Osoba zatrudniona jako "model AI" siedzi przed wysokiej jakości kamerą przez całe godziny pracy. Jej zadanie: wykonywać różne gesty, miny, ruchy głową. Czasem czyta przygotowane teksty. Czasem po prostu reaguje na polecenia operatora.
Każda sesja dostarcza setki gigabajtów materiału treningowego. Im więcej mimiki, tym lepszy efekt końcowy – system deepfake uczy się odwzorowywać każdy detal. Jak poruszają się usta podczas mówienia. Jak zmienia się wyraz twarzy. Jak pada światło na policzki.
Większość tych "modeli" nie wie dokładnie, do czego posłuży ich wizerunek. Rekrutacja odbywa się przez ogłoszenia oferujące "pracę zdalną przed kamerą" z wynagrodzeniem 50-150 dolarów dziennie. Dla wielu osób w krajach rozwijających się to atrakcyjna oferta.
Według danych z raportu Computer Hoy, pojedyncza osoba może wziąć udział w nagraniu materiału do nawet 100 rozmów wideo dziennie. Systemy deepfake w czasie rzeczywistym potrzebują ogromnych zbiorów danych treningowych, aby działać przekonująco w różnych scenariuszach oświetleniowych i kątach kamery.
Materiał z jednego dnia pracy może posłużyć do stworzenia kilkudziesięciu różnych "tożsamości" deepfake. Oszuści miksują cechy różnych modeli. Dodają elementy z publicznie dostępnych zdjęć. Tworzą hybrydowe twarze, które nie istnieją – ale wyglądają realnie.
Jeszcze dwa lata temu stworzenie przekonującego deepfake wymagało potężnego sprzętu i dni renderowania. Dziś? Kupisz gotowe rozwiązanie za 300-500 dolarów i odpalasz je na laptopie.
Oprogramowanie jak DeepFaceLive czy podobne narzędzia (często dostępne w szarej strefie internetu) pozwalają na podmianę twarzy w czasie rzeczywistym podczas rozmowy wideo. Jakość jest wystarczająco dobra, by oszukać większość platform wideokonferencyjnych – Zoom, Teams, Google Meet.
Technologia działa w trzech krokach:
Opóźnienie? Praktycznie niezauważalne. Jakość? Wystarczająco dobra, by przejść weryfikację wideo w bankach czy podczas rozmów biznesowych.
Schemat jest zawsze podobny. Oszuści najpierw zbierają informacje o potencjalnej ofierze – przez social media, wycieki danych, inżynierię społeczną. Potem przychodzi czas na kontakt.
Najczęstsze scenariusze:
Średnia strata w pojedynczym oszustwie? 200 000 dolarów. Niektóre ofiary traciły miliony.
Zaufanie. Przez dziesięciolecia uczyliśmy się, że "widzieć znaczy wierzyć". Rozmowa wideo była złotym standardem weryfikacji tożsamości – bezpieczniejsza niż telefon, pewniejsza niż email.
Technologia deepfake zniszczyła tę pewność. Większość ludzi jeszcze o tym nie wie.
Oszuści wykorzystują presję czasu ("to pilne"), autorytet ("jestem twoim szefem") i emocje ("twój wnuk potrzebuje pomocy"). Klasyczna inżynieria społeczna wzmocniona technologią, która eliminuje ostatnią linię obrony – weryfikację wzrokową.
Technologia deepfake jest już tutaj i nie zniknie. Nie możesz jej uniknąć. Możesz się przed nią bronić.
Podstawowa zasada: nigdy nie ufaj samemu wideo jako potwierdzeniu tożsamości. Szczególnie gdy rozmowa dotyczy pieniędzy, danych osobowych czy ważnych decyzji biznesowych.
Konkretne kroki obronne:
Jeśli pracujesz w dziale finansowym lub HR – systemy wykrywania deepfake już istnieją, choć nie są idealne. Rozważ je jako dodatkową warstwę ochrony.
Tak. Polskie firmy już padły ofiarą oszustw deepfake. W 2024 roku media informowały o próbach wyłudzenia przelewów z wykorzystaniem fałszywych rozmów wideo z "prezesami" firm.
Wiele polskich firm korzysta z platform do generowania wideo AI w celach marketingowych. To samo narzędzie, które tworzy reklamę, może stworzyć deepfake do oszustwa. Technologia jest neutralna, intencje – nie.
Unijne regulacje AI Act obejmują deepfake. Egzekwowanie prawa w internecie to osobny problem. Oszuści działają z krajów, gdzie jurysdykcja UE nie sięga.
Świat zachwyca się możliwościami generowania wideo przez AI czy multimodalnymi modelami. Równolegle powstaje infrastruktura oszustw.
"Modele AI" nagrywający swoje twarze to tylko wierzchołek góry lodowej. Poniżej są:
To nie science fiction. To działający, dochodowy biznes, który rośnie szybciej niż mechanizmy obronne.
Technologie takie jak Gemini czy Veo 3 demokratyzują dostęp do generowania wideo. Wspaniałe dla twórców. Niebezpieczne w rękach oszustów.
Technologia będzie się rozwijać. Za rok deepfake'i będą jeszcze bardziej przekonujące, jeszcze tańsze, jeszcze łatwiej dostępne. Nie da się tego zatrzymać.
Możesz za to zmienić swoje podejście do weryfikacji tożsamości. Przestań ufać oczom. Zacznij ufać procedurom.
Hasła bezpieczeństwa, weryfikacja dwuetapowa, zwrotne telefony na znane numery – to nie paranoja. To podstawowa higiena cyfrowa w świecie, gdzie każdy może być każdym na ekranie.
A jeśli kiedykolwiek zobaczysz ofertę pracy "model AI – praca przed kamerą" – teraz wiesz, do czego może posłużyć Twoja twarz.
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar