Veo 3.1: jak promptować nowy model Google, żeby dał ci to, czego chcesz
Źródło: Link
Źródło: Link
90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.
Masz najnowszy model generowania wideo od Google. Veo 3.1. Potężny, szybki, z funkcjami, o których wcześniej mogłeś tylko pomarzyć. I co z tego, skoro nie wiesz, jak go poprosić, żeby dał ci to, czego naprawdę chcesz?
Veo 3.1 to nie ChatGPT, gdzie możesz napisać "zrób mi coś fajnego" i liczyć na cud. Tu liczy się precyzja. Konkret. I zrozumienie, jakie nowe możliwości właśnie dostałeś.
Google dodało do Veo 3.1 trzy kluczowe możliwości, które wcześniej były albo niedostępne, albo działały kiepsko.
Pierwsza: obrazy referencyjne. Możesz teraz wrzucić zdjęcie i powiedzieć modelowi "chcę, żeby wideo wyglądało jak to". Nie musisz opisywać słowami, jak ma wyglądać postać, lokalizacja czy styl – pokazujesz.
Druga: kontrola pierwszej i ostatniej klatki. Definiujesz, jak wideo ma się zacząć i jak ma się skończyć. Resztę – ruch, przejścia, dynamikę – model wypełnia sam. Szczególnie przydatne, jeśli tworzysz materiały do montażu i potrzebujesz konkretnych punktów zaczepienia.
Trzecia: ulepszone image-to-video. Wcześniejsze wersje potrafiły zamienić statyczne zdjęcie w krótki klip, ale efekt często był... powiedzmy, że amatorski. Veo 3.1 robi to znacznie lepiej – ruch jest płynniejszy, kontekst bardziej spójny, a artefakty rzadsze.

Dobry prompt do Veo 3.1 to nie esej. To precyzyjna instrukcja. Im bardziej konkretny, tym lepszy efekt.
Zamiast "piękny krajobraz" napisz "góry o zachodzie słońca, mgła w dolinie, ciepłe światło, kamera powoli przesuwa się w prawo".
Kluczowe elementy skutecznego prompta:
Przykład słabego prompta: "Kobieta idzie ulicą".
Przykład dobrego: "Kobieta w czerwonym płaszczu idzie pustą ulicą w deszczu, kamera podąża za nią z boku, wieczorne światło latarni, styl noir, 8 sekund".
Jeśli masz konkretną wizję estetyczną – postać, lokalizację, paletę kolorów – obraz referencyjny zaoszczędzi ci frustracji. Zamiast próbować opisać słowami "dokładnie taki odcień niebieskiego" albo "taki typ twarzy", po prostu pokazujesz.
Ważne: obraz referencyjny to nie szablon 1:1. Veo używa go jako inspiracji, nie kopii. Jeśli wrzucisz zdjęcie swojego psa i napiszesz "pies biega po plaży", dostaniesz psa podobnego, ale nie identycznego. To nie deepfake – to generowanie na podstawie wzorca.
Najlepsze rezultaty daje połączenie obrazu referencyjnego z precyzyjnym promptem tekstowym. Obraz mówi "jak ma wyglądać", tekst mówi "co ma się dziać".

Definiowanie pierwszej i ostatniej klatki to funkcja dla tych, którzy myślą o wideo jako o sekwencji, nie pojedynczym klipie. Chcesz, żeby bohater zaczął w jednym miejscu, a skończył w drugim? Uplodujesz dwa obrazy – początek i koniec – a Veo wypełnia to, co między nimi.
Szczególnie przydatne w montażu materiałów generowanych przez AI, gdzie potrzebujesz płynnych przejść między scenami. Zamiast losowego ruchu kamery dostajesz kontrolowany flow od punktu A do punktu B.
Przykład użycia: pierwsza klatka – postać stoi w drzwiach. Ostatnia klatka – postać siedzi przy stole. Prompt: "Kobieta wchodzi do pokoju, podchodzi do stołu, siada, spokojny ruch kamery". Veo generuje całą sekwencję ruchu między tymi dwoma punktami.
Ulepszone image-to-video w Veo 3.1 to nie tylko "zrób mi gif z tego zdjęcia". To narzędzie do tworzenia dynamicznych materiałów z istniejących zasobów wizualnych.
Masz statyczne zdjęcie produktu? Możesz zamienić je w klip z obracającą się kamerą. Masz portret? Możesz dodać subtelny ruch – mruganie, lekki uśmiech, ruch włosów.
Kluczowa różnica między starą a nową wersją: kontekst przestrzenny. Wcześniejsze modele często generowały ruch, który nie miał sensu – obiekty "pływały", perspektywa się zmieniała chaotycznie, tło żyło własnym życiem. Veo 3.1 lepiej rozumie, co jest na pierwszym planie, co w tle, i jak to wszystko powinno się poruszać względem siebie.
Najlepsze rezultaty dostajesz, gdy:
Przykład: zamiast "ożyw to zdjęcie" napisz "kamera powoli zbliża się do twarzy, włosy delikatnie poruszane wiatrem, tło pozostaje statyczne".

Veo 3.1 to potężne narzędzie. Nie magiczne.
Są rzeczy, z którymi nadal sobie nie radzi. Długie sekwencje z wieloma postaciami – im więcej dzieje się na ekranie, tym większe ryzyko, że model się pogubi. Ręce, stopy, twarze w ruchu – to nadal problematyczne obszary.
Spójność między klipami – jeśli generujesz kilka osobnych wideo, nie ma gwarancji, że postać będzie wyglądać identycznie w każdym z nich. Obrazy referencyjne pomagają, ale nie rozwiązują problemu w 100%.
Precyzyjny timing – jeśli potrzebujesz, żeby konkretna akcja wydarzyła się dokładnie w 3. sekundzie, Veo nie da ci takiej kontroli. Model generuje ruch w sposób probabilistyczny, nie deterministyczny.
Co z tym zrobić? Generuj więcej wariantów. Veo pozwala na szybkie iteracje – zamiast walczyć z jednym klipem, wygeneruj 5-10 i wybierz najlepszy. Nie jest to eleganckie rozwiązanie, ale działa.
Druga opcja: łącz Veo z innymi narzędziami. Użyj go do generowania surowego materiału, a potem dopracuj w edytorze wideo. AI nie musi robić wszystkiego – wystarczy, że zrobi 80% pracy.
Jeśli tworzysz treści wideo – do social media, reklam, prezentacji – Veo 3.1 może zaoszczędzić ci godzin pracy. Pod jednym warunkiem: musisz nauczyć się go promptować.
To nie jest narzędzie typu "kliknij i czekaj na cud". To narzędzie typu "powiedz precyzyjnie, czego chcesz, a dostaniesz to szybciej niż tradycyjnymi metodami".
Obrazy referencyjne, kontrola klatek i lepsze image-to-video to nie rewolucja. To ewolucja. Jeśli do tej pory frustrował cię brak kontroli nad tym, co generują modele wideo, te funkcje mogą zmienić twoje podejście do pracy z AI.
Pytanie nie brzmi "czy Veo jest lepsze od tradycyjnego wideo". Pytanie brzmi: "czy jesteś gotów nauczyć się nowego sposobu komunikacji z narzędziem, które może ci dać rezultaty w ułamku czasu"?
Jeśli tak – zacznij od prostych promptów. Testuj. Iteruj. Najlepsze rezultaty nie przychodzą z pierwszej próby. Przychodzą z dziesiątej, dwudziestej, setnej. Za każdym razem jesteś bliżej tego, żeby dostać dokładnie to, czego chcesz. Veo 3.1 potrafi generować pionowe wideo – i robi to naprawdę dobrze.
Na podstawie: Replicate Blog – How to prompt Veo 3.1
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar