Sora 2 pozwala tworzyć własne postacie AI i łączyć klipy
Źródło: Link
Źródło: Link
90 minut praktyki na żywo. Pokazuję krok po kroku, jak zacząć z AI bez kodowania.
OpenAI">OpenAI właśnie dodało do swojej aplikacji Sora">Sora funkcję, na którą czekali twórcy treści – możliwość zamiany niemal dowolnego obiektu w wielokrotnie używaną postać do filmów generowanych przez AI. To część większej aktualizacji Sora 2, która obejmuje także długo oczekiwane łączenie klipów.
Aktualizacja pojawia się w momencie, gdy konkurencja w obszarze generowania wideo AI staje się coraz bardziej zacięta. Narzędzia takie jak Runway, Pika czy Stable Video Diffusion nieustannie podnoszą poprzeczkę, a użytkownicy oczekują nie tylko jakości wizualnej, ale przede wszystkim praktycznych funkcji usprawniających proces twórczy. OpenAI odpowiada na te potrzeby, wprowadzając rozwiązania, które mają realny wpływ na codzienną pracę z generowanym wideo.
Nowa funkcja "character cameos" pozwala Ci stworzyć awatara z praktycznie wszystkiego. Twój pies? Sprawdzi się. Ulubiona zabawka? Też. Abstrakcyjny kształt? Czemu nie. Po utworzeniu takiej postaci możesz używać jej w kolejnych projektach bez konieczności ponownego generowania od zera. To znacząca oszczędność czasu (i tokenów, jeśli masz limit).
Mechanizm działa prosto: wgrywasz obraz lub generujesz postać przez Sorę, oznaczasz ją jako "character cameo", a następnie wstawiasz do różnych scen i kontekstów. System zachowuje charakterystyczne cechy postaci, dostosowując jednocześnie jej wygląd do nowego otoczenia i oświetlenia.
W praktyce oznacza to, że jeśli stworzysz na przykład maskotę w stylu retro-futurystycznym, możesz umieścić ją zarówno w scenie biurowej, jak i w kosmicznej stacji, a Sora automatycznie zadba o odpowiednie cienie, refleksy i proporcje. System analizuje kontekst wizualny każdej sceny i inteligentnie adaptuje postać, zachowując jej kluczowe cechy rozpoznawcze – kształt, kolorystykę, proporcje czy charakterystyczne detale.
Szczególnie interesujące jest to, jak technologia radzi sobie z różnymi kątami kamery. Postać utworzona z jednego zdjęcia frontowego może być następnie pokazana z profilu, z góry czy z dołu – model AI ekstrapoluje brakujące informacje na podstawie zrozumienia trójwymiarowej struktury obiektów. Oczywiście nie jest to idealne rozwiązanie i zdarzają się artefakty, ale dla większości zastosowań contentowych jakość jest wystarczająca.
Oprócz postaci, OpenAI wprowadza funkcję stitchingu – łączenia wygenerowanych fragmentów wideo w dłuższe sekwencje. Do tej pory użytkownicy musieli eksportować poszczególne klipy i montować je w zewnętrznych programach. To przerywało workflow i zabierało czas.
Teraz możesz planować i łączyć sceny bezpośrednio w aplikacji Sora. Szczególnie przydatne przy tworzeniu narracyjnych treści, gdzie potrzebujesz płynnych przejść między ujęciami. System automatycznie dopasowuje style wizualne sąsiadujących klipów. Jak radzi sobie z bardziej skomplikowanymi przejściami? Tego jeszcze nie wiemy.
Funkcja stitchingu to nie tylko proste sklejanie klipów jeden za drugim. Sora 2 oferuje kilka trybów łączenia: twarde cięcie (klasyczny montaż), płynne przenikanie (cross-fade) oraz inteligentne przejścia, gdzie algorytm próbuje stworzyć wizualny pomost między scenami. Ten ostatni tryb jest najbardziej eksperymentalny – system analizuje końcowe klatki pierwszego klipu i początkowe klatki drugiego, generując krótką sekwencję przejściową, która łączy oba ujęcia w bardziej organiczny sposób.
Dla twórców oznacza to możliwość budowania kompletnych historii bez opuszczania środowiska Sora. Możesz storyboardować całą sekwencję, generować poszczególne ujęcia, a następnie łączyć je w spójną całość – wszystko w jednym miejscu. To znacząco przyspiesza iterację i testowanie różnych wersji montażowych.
Te aktualizacje przesuwają Sorę z kategorii "ciekawostka technologiczna" w stronę narzędzia produkcyjnego. Możliwość wielokrotnego używania postaci otwiera drzwi do tworzenia spójnych serii wideo, animacji czy nawet prostych form storytellingu z powtarzającymi się bohaterami.
Dla marek i twórców contentu to szansa na budowanie rozpoznawalnych maskotek AI bez angażowania zespołów animatorów. Dla eksperymentatorów – playground do testowania, jak ta sama postać zachowuje się w różnych kontekstach wizualnych.
Wyobraź sobie małą firmę, która chce stworzyć serię materiałów edukacyjnych z własnym przewodnikiem-maskotką. Wcześniej wymagało to albo kosztownej animacji 3D, albo żmudnego rysowania każdej sceny od nowa. Teraz wystarczy jeden dobry prompt lub zdjęcie referencyjne, by stworzyć postać, która będzie towarzyszyć odbiorcom przez dziesiątki różnych materiałów. Każdy nowy film można wyprodukować w ułamku czasu i kosztu tradycyjnej produkcji.
Podobnie twórcy na platformach takich jak YouTube czy TikTok mogą eksperymentować z formatami, które wcześniej były poza ich zasięgiem. Animowane serie z powtarzającymi się bohaterami, surrealistyczne skecze z konsekwentną estetyką wizualną, czy nawet proste formy edukacji wizualnej – wszystko to staje się dostępne bez znajomości zaawansowanych programów do animacji.
Pytanie pozostaje otwarte: jak Sora radzi sobie z zachowaniem konsystencji postaci w ekstremalnych warunkach? Drastyczne zmiany oświetlenia, perspektywy czy stylu artystycznego to prawdziwy test. Praktyka użytkowników w najbliższych tygodniach pokaże.
Istnieją też obawy dotyczące potencjalnego nadużycia technologii – możliwość tworzenia konsekwentnych postaci opartych na prawdziwych ludziach budzi pytania o zgodę i prawa wizerunku. OpenAI zapewnia, że system ma wbudowane zabezpieczenia przed tworzeniem deepfake'ów znanych osób, ale jak pokazuje historia podobnych technologii, granica między kreatywnym narzędziem a narzędziem dezinformacji bywa cienka.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar