Gemini rozpoznaje fałszywe wideo. Ale jest jeden problem
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Google właśnie wbudował w Gemini wykrywanie filmów stworzonych przez AI. Wrzucasz materiał, pytasz czy to deepfake — i dostajesz odpowiedź.
Czemu więc nikt nie wyskakuje z radości?
Bo to narzędzie ma jeden zasadniczy haczyk.
Mechanizm jest prosty. Wrzucasz filmik, zadajesz pytanie: "Czy to wideo zostało wygenerowane przez AI?" Gemini analizuje materiał i próbuje ustalić, czy powstał w generatorze, czy ktoś po prostu nagrał go kamerą.
System szuka wzorców typowych dla AI — nienaturalnych ruchów, dziwacznych artefaktów w tle, obiektów łamiących prawa fizyki. Trochę jak detektyw przeczesujący miejsce zbrodni.
Z tym że ten detektyw widzi... tylko jeden rodzaj śladów.
Gemini potrafi wykryć filmy stworzone przez Veo — własny generator wideo Google'a. Reszta? Cóż.
wykrywacz metalu działający wyłącznie na monety z konkretnej mennicy. Reszta metalu? Niewidoczna.
Gemini świetnie radzi sobie z Veo. Materiały z innych generatorów — Sora od OpenAI, Runway, Pika Labs — to już loteria. Google wprost przyznaje: skuteczność spada drastycznie poza ich ekosystemem.
Dlaczego?
Bo każdy generator zostawia swój unikalny "odcisk palca" w strukturze pliku i metadanych. Gemini nauczył się rozpoznawać odcisk Veo. Dla reszty to szum informacyjny.
I teraz najlepsze: większość deepfake'ów krążących po sieci nie powstaje w Veo. Twórcy używają różnych narzędzi, mieszają je w postprodukcji, usuwają metadane. Gemini patrzy na takie materiały i — wzrusza ramionami.
Jeśli jesteś dziennikarzem weryfikującym materiały — to narzędzie pomoże Ci w... czym dokładnie? W sprawdzaniu filmów z Veo, których w obiegu jest garstka.
Dla kogoś, kto chce zweryfikować filmik z Facebooka czy TikToka — wartość praktyczna bliska zeru.
Bo oszuści nie korzystają z Veo. Używają tego, co działa najlepiej i jest najtrudniejsze do wykrycia.
Google pozycjonuje funkcję jako krok w walce z dezinformacją. I formalnie — owszem, to krok.
Tyle że w bok.
Tu zaczyna się prawdziwy kłopot. Generatory wideo robią się coraz lepsze — i to w tempie wykładniczym.
Veo 2, najnowsza wersja od Google, tworzy materiały nie do odróżnienia od prawdziwych nagrań. Bez specjalistycznego sprzętu — nie masz szans.
Artefakty, po których poznawało się AI? Dziwne dłonie, niefizyczne ruchy, rozmazane twarze? Znikają z każdą iteracją modeli. Za pół roku wykrywanie po samej treści wideo może być praktycznie niemożliwe.
Dlatego branża stawia na watermarking — niewidoczne znaki wodne wbudowane w każdy wygenerowany filmik. Coś jak cyfrowe piętno mówiące: "Hej, jestem z AI".
Problem? Wymaga to współpracy wszystkich graczy.
OpenAI, Google, Meta, Runway — wszyscy musieliby używać kompatybilnego systemu. I wszyscy użytkownicy musieliby mieć narzędzia do odczytu tych znaków.
No właśnie.
Funkcja w Gemini to bardziej PR niż rozwiązanie. Google może teraz powiedzieć: "Patrzcie, działamy przeciw deepfake'om".
Tylko że to "coś" działa głównie na ich własne produkty.
Dla Ciebie rada pozostaje identyczna jak rok temu: jeśli filmik wygląda zbyt sensacyjnie, dziwnie lub perfekcyjnie — sprawdź źródło. Poszukaj innych materiałów. Włącz zdrowy rozsądek.
Bo jedynym niezawodnym detektorem AI w wideo wciąż jest Twój mózg. I krytyczne myślenie.
Gemini może pomóc — ale tylko jeśli oszust akurat użył narzędzia Google'a.
A jakie są szanse.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar