Wideo
Wideo · 2 min czytania · 29 października 2025

Doppel blokuje deepfake'i zanim trafią do sieci

Doppel blokuje deepfake'i zanim trafią do sieci - LLM

Źródło: Link

Gdy deepfake CEO Twojej firmy prosi o pilny przelew, masz minuty na reakcję. Doppel właśnie skrócił ten czas z godzin do sekund – i zautomatyzował 80% pracy analityków bezpieczeństwa.

System obronny Doppel wykorzystuje GPT-5 i technikę RFT (reinforcement fine-tuning), by wykrywać i blokować ataki typu impersonation oraz deepfake zanim rozprzestrzenią się w sieci. To odpowiedź na rosnącą falę oszustw, gdzie złodzieje podszywają się pod znane osoby, by wyłudzić dane lub pieniądze.

GPT-5 trenowany do rozpoznawania zagrożeń

Doppel oparł swój system na modelu GPT-5 od OpenAI, wzmacniając go metodą reinforcement fine-tuning. Co to oznacza w praktyce? AI uczy się rozpoznawać wzorce ataków nie tylko z danych treningowych, ale też z feedbacku otrzymywanego podczas rzeczywistej pracy. Model analizuje treści, metadane i kontekst komunikacji, by ocenić ryzyko fałszerstwa.

RFT to technika, która pozwala modelowi uczyć się przez próby i błędy – podobnie jak człowiek. System staje się coraz lepszy w wyłapywaniu subtelnych oznak manipulacji, których standardowe filtry by nie zauważyły. A deepfake'i są dziś naprawdę przekonujące.

Konkretne liczby: od godzin do minut

Według danych Doppel, system skraca czas reakcji na zagrożenia z kilku godzin do kilku minut. Analitycy bezpieczeństwa oszczędzają 80% czasu, który wcześniej poświęcali na ręczną weryfikację podejrzanych treści. Twój zespół może skupić się na najbardziej skomplikowanych przypadkach, podczas gdy AI zajmuje się rutynową filtracją.

System działa prewencyjnie – blokuje zagrożenia przed ich rozprzestrzenieniem, a nie tylko reaguje na już wykryte incydenty. Gdy wygenerowanie przekonującego deepfake'a zajmuje kilka minut, ta różnica jest kluczowa.

Co to zmienia w codziennej pracy zespołów bezpieczeństwa

Dla Ciebie jako użytkownika lub osoby odpowiedzialnej za cyberbezpieczeństwo to konkretna oszczędność. Mniej fałszywych alarmów. Szybsza reakcja na realne zagrożenia. Zespół, który nie tonie w morzu podejrzanych maili.

Doppel pokazuje, że modele językowe mogą robić więcej niż generować tekst – mogą aktywnie chronić przed jego złośliwym użyciem. System jest już wdrażany przez firmy, które zmagają się z rosnącą liczbą ataków impersonacyjnych. Przy wyborach, kampaniach dezinformacyjnych i coraz bardziej wyrafinowanych oszustwach finansowych, narzędzia takie jak Doppel stają się niezbędne.

Źródła

Informacje o artykule

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.