Veo 3.1 generuje pionowe wideo. I robi to dobrze
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Obiecywali Ci Wideo AI, które będzie wyglądać jak prawdziwe. Dostałeś dziwne, drżące klipy, gdzie fizyka nie działa, a ludzie mają sześć palców. Google DeepMind właśnie zaktualizował Veo 3.1 i twierdzi, że tym razem jest inaczej. Sprawdzam.
Aktualizacja "Ingredients to Video" to nie nowa wersja modelu – to rozszerzenie możliwości Veo 3.1, które Google wypuścił w grudniu 2024. Tym razem skupili się na trzech rzeczach: konsystencji, kreatywności i kontroli. I dodali coś, czego brakowało od początku – pionowe wideo.
Veo 3.1 teraz generuje wideo w formacie 9:16. Może to brzmieć jak drobny dodatek. Jeśli tworzysz treści na Instagram, TikTok czy YouTube Shorts, wiesz, że to fundamentalna różnica. Do tej pory musiałeś generować poziome wideo i ciąć je, tracąc kontrolę nad kompozycją.
Teraz model rozumie pionową kompozycję od początku. Postaci są kadrowane inaczej, obiekty rozmieszczone z myślą o wąskim ekranie. To szczególnie istotne dla twórców, którzy produkują content na social media – nie musisz już kombinować z cropowaniem i tracić połowy sceny.
Jeśli pracujesz w marketingu lub prowadzisz własną firmę, możliwość szybkiego generowania pionowych wideo oznacza mniej czasu na produkcję i więcej na testowanie różnych wariantów kampanii.
Największy problem AI generującego wideo? Brak pamięci między klatkami.
Postać ma niebieską koszulę w sekundzie zero, czerwoną w sekundzie trzy, a w piątej sekundzie nagle ma brodę. Veo 3.1 z aktualizacją "Ingredients to Video" poprawia właśnie ten aspekt.
Google twierdzi, że model lepiej utrzymuje spójność wizualną obiektów i postaci przez cały klip. Nie podają konkretnych metryk (co jest frustrujące), ale pokazują przykłady, gdzie ta sama osoba faktycznie wygląda tak samo przez całe 8 sekund wideo.
Jeśli planujesz użyć AI do generowania materiałów reklamowych lub edukacyjnych, konsystencja to nie luksus – to minimum. Nikt nie kupi produktu od marki, której wideo wygląda jak glitch z horroru. Lepsza stabilność wizualna oznacza, że Veo 3.1 zbliża się do poziomu, gdzie możesz faktycznie użyć wygenerowanych klipów w profesjonalnych projektach.
Podobne problemy z konsystencją rozwiązują też inne narzędzia – Luma AI stawia na interpolację między klatkami, podczas gdy Runway idzie w stronę większej kontroli użytkownika.
Aktualizacja dodaje zaawansowane opcje kontroli nad kompozycją i dynamiką sceny. Możesz teraz precyzyjniej określić, jak ma wyglądać kadr, gdzie mają być umieszczone obiekty i jak szybko ma poruszać się kamera.
To istotna zmiana. Wcześniejsze wersje AI do wideo działały jak czarna skrzynka – wpisywałeś prompt i modliłeś się, żeby wyszło coś sensownego. Teraz masz więcej parametrów do regulacji. Nie jest to jeszcze poziom pełnej kontroli jak w tradycyjnym oprogramowaniu do edycji, ale krok w dobrą stronę.
Google podkreśla, że wideo są teraz bardziej "żywe" i "angażujące". To marketingowa mowa. Po przetłumaczeniu oznacza: lepsze animacje, płynniejsze przejścia, mniej sztucznych ruchów. Wcześniejsze generatory AI często produkowały klipy, gdzie wszystko poruszało się w dziwnym, nienaturalnym tempie – jak w złym deepfake'u.
Veo 3.1 ma rozumieć fizykę ruchu lepiej niż poprzednie wersje. Czy to działa? Trudno powiedzieć bez bezpośredniego dostępu do narzędzia (Google wciąż ogranicza dostęp do zamkniętej grupy testerów). Jeśli faktycznie poprawili dynamikę, to duży krok naprzód.
Veo 3.1 jest dostępne przez VideoFX – eksperymentalne narzędzie Google, które wymaga zaproszenia. To frustrujące. Większość twórców wciąż czeka w kolejce. Google nie podaje daty szerszego udostępnienia, co oznacza, że dla polskich użytkowników to wciąż odległa perspektywa.
Jeśli prowadzisz agencję marketingową w Polsce i chcesz testować AI do wideo, realnie dostępne są teraz chińskie rozwiązania jak Kling czy narzędzia od Alibaby, które są otwarte dla szerszej grupy użytkowników. Pytanie, czy chcesz powierzać swoje dane serwerom w Chinach.
Jeśli chodzi o unijny AI Act, narzędzia takie jak Veo 3.1 będą musiały spełniać wymogi dotyczące transparentności i oznaczania treści generowanych przez AI. Google nie komunikuje jeszcze, jak zamierza to rozwiązać. Dla polskich firm to istotna kwestia – szczególnie jeśli planujesz używać AI-wideo w kampaniach reklamowych.
Detekcja deepfake'ów to kolejny aspekt, który nabiera znaczenia. Im bardziej realistyczne są klipy AI, tym trudniej odróżnić je od prawdziwych nagrań.
Veo 3.1 z obsługą pionowego wideo i lepszą kontrolą to sygnał, że generatory AI przestają być zabawką dla entuzjastów i stają się narzędziem dla profesjonalistów. Za sześć miesięcy prawdopodobnie zobaczymy pierwsze kampanie reklamowe w Polsce, które w pełni wykorzystują AI-wideo – od koncepcji po finalne klipy.
Dla twórców treści to oznacza jedno: albo nauczysz się używać tych narzędzi, albo będziesz konkurować z kimś, kto potrafi wyprodukować 20 wariantów wideo w czasie, w którym Ty montujesz jeden. To nie jest straszenie – to obserwacja kierunku, w którym idzie rynek.
Pytanie nie brzmi "czy AI zastąpi operatorów kamery". Pytanie brzmi: "jak szybko nauczysz się używać AI jako narzędzia w swoim workflow". Różnica jest fundamentalna.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar