Narzedzia AI
Narzedzia AI · 4 min czytania · 20 listopada 2025

Google pozwoli sprawdzić, czy zdjęcie wygenerowało AI

Grafika ilustrująca: Google pozwoli sprawdzić, czy zdjęcie wygenerowało AI

Źródło: Link

AI dla Twojej firmy

Szkolenia, warsztaty i wdrożenia AI. Dopasowane do Twojego zespołu.

Sprawdź ofertę →

Widzisz zdjęcie w sieci. Wygląda realnie. Ale coś Cię gryzie – czy to prawdziwe, czy wygenerowane? Google właśnie dodał do aplikacji Gemini funkcję, która odpowie na to pytanie.

Nowe narzędzie działa prosto. Wrzucasz obraz do Gemini, system sprawdza metadane C2PA – standard weryfikacji treści cyfrowych. Jeśli grafika powstała w generatorze AI (ImageFX, Imagen) albo przeszła przez edytor ze sztuczną inteligencją, Gemini to wykryje. I powie wprost: to AI.

Problem z rozpoznawaniem treści generowanych przez AI narasta z każdym miesiącem. Modele takie jak GPT-4o czy najnowsze wersje generatorów obrazów tworzą grafiki niemal nie do odróżnienia od fotografii. Ludzkie oko często zawodzi – szczególnie gdy obraz jest dobrej jakości, a kompozycja przemyślana. Dlatego potrzebujemy narzędzi, które zrobią to za nas.

Jak to działa?

Technologia opiera się na C2PA (Coalition for Content Provenance and Authenticity). Coś jak cyfrowy certyfikat pochodzenia. Każdy obraz stworzony przez narzędzia Google dostaje niewidoczny watermark z informacją: kto, kiedy i czym go wygenerował.

Wrzucasz plik do Gemini. System czyta metadane. Znajdzie znacznik C2PA? Wyświetla szczegóły. Brak znacznika? Gemini nie powie "to fake", ale zasugeruje: brak potwierdzenia pochodzenia.

Na razie działa to z grafikami z ekosystemu Google. ImageFX, Imagen, narzędzia w Vertex AI – wszystkie oznaczają swoje dzieła. Inne generatory? Zależy, czy stosują ten sam standard.

Standard C2PA to inicjatywa branżowa, która zyskuje na znaczeniu. Działa jak blockchain dla treści – każda modyfikacja obrazu może być zapisana w metadanych. Jeśli ktoś wygeneruje grafikę w ImageFX, potem edytuje ją w Photoshopie z włączoną obsługą C2PA, obie operacje zostaną odnotowane. Historia zmian pozostaje czytelna, przynajmniej teoretycznie.

System nie analizuje samego obrazu pod kątem artefaktów czy nietypowych wzorców – nie szuka "palców z sześcioma paznokciami" ani dziwnych tekstur. Po prostu czyta dane techniczne ukryte w pliku. To szybsze i bardziej niezawodne niż algorytmy próbujące zgadywać na podstawie wyglądu.

Po co Google to robi?

Bo chaos narasta. Deepfake'i, manipulacje, dezinformacja – AI generuje obrazy szybciej, niż ludzie uczą się je rozpoznawać. Google nie jest tu sam: Adobe, Microsoft, OpenAI – wszyscy testują podobne rozwiązania.

Jest jednak haczyk. Standard C2PA działa tylko wtedy, gdy twórca narzędzia chce go używać. Gemini rozpozna swoje. Ale co z Midjourney, DALL-E, Stable Diffusion? Jeśli nie dodadzą metadanych – Gemini wzruszy ramionami.

I jeszcze jedno. Metadane można usunąć. Wystarczy przerobić plik w edytorze, zmienić format, skompresować. Watermark znika. System milczy.

To największa słabość całego pomysłu. Osoba, która chce celowo wprowadzić kogoś w błąd, bez problemu usunie metadane przed publikacją. Wystarczy zrzut ekranu, konwersja przez prosty edytor graficzny albo nawet upload na platformę, która automatycznie kompresuje pliki. Metadane C2PA są kruche – znikają przy minimalnej ingerencji.

Dlatego narzędzie Google działa najlepiej w scenariuszach, gdzie nikt celowo nie ukrywa pochodzenia obrazu. Sprawdzasz grafikę od klienta? Weryfikujesz materiały prasowe? Chcesz upewnić się, że zdjęcie z wewnętrznej bazy nie jest przypadkiem wygenerowane? Wtedy Gemini pomoże. Ale w walce z celową dezinformacją? To tylko jeden z wielu elementów układanki.

Co z tego masz?

Pracujesz z grafikami? Dostajesz narzędzie do szybkiej weryfikacji. Dziennikarz, designer, content creator – każdy, kto musi sprawdzić źródło obrazu, zyskuje dodatkową warstwę pewności.

Funkcja jest dostępna w aplikacji Gemini na Androida i iOS. Wystarczy wgrać obraz i zapytać: "Czy to AI?". Proste.

Dla redakcji medialnych to może być przydatne narzędzie w procesie fact-checkingu. Zamiast polegać wyłącznie na intuicji albo czasochłonnej analizie wizualnej, można szybko sprawdzić, czy obraz nosi cyfrowy podpis. To nie zastąpi ludzkiej oceny, ale przyspiesza pierwszy etap weryfikacji.

Dla twórców treści to także forma ochrony własnej pracy. Jeśli publikujesz prawdziwe zdjęcia, możesz je oznaczać odpowiednimi metadanymi – pokazując, że nie są wygenerowane. W przyszłości takie potwierdzenie autentyczności może stać się standardem, podobnie jak dzisiaj oczekujemy podpisów cyfrowych w dokumentach.

Czy to rozwiąże problem fake newsów? Nie. To krok w stronę przejrzystości. A w świecie, gdzie AI generuje miliony obrazów dziennie – każdy krok się liczy.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.