Adobe oficjalnie debiutuje na rynku generatywnej sztucznej inteligencji wideo, wprowadzając model Firefly Video. Narzędzia oparte na tym modelu trafiły m.in. do programu Premiere Pro, gdzie użytkownicy mogą wydłużać klipy oraz generować filmy z obrazów i opisów tekstowych.
Nowe funkcje w Premiere Pro: Generative Extend
Pierwszym udostępnionym narzędziem jest Generative Extend w wersji beta. Pozwala ono na:
– wydłużanie początku lub końca klipu, gdy nagranie jest zbyt krótkie,
– korygowanie ujęć, np. przesunięcie linii wzroku postaci lub eliminację niechcianego ruchu w trakcie nagrania.
Klipy można wydłużyć maksymalnie o dwie sekundy, co czyni narzędzie przydatnym do drobnych poprawek, ale nie do znaczących zmian. Rozszerzone klipy mogą być generowane w rozdzielczości 720p lub 1080p przy 24 klatkach na sekundę. Narzędzie obsługuje również dźwięk, jednak tylko w ograniczonym zakresie – można np. przedłużyć efekty dźwiękowe i tło akustyczne do 10 sekund, ale nie dialogi, czy muzykę.
Tekst i obraz jako podstawa generowania wideo
Dwa inne narzędzia – Text-to-Video i Image-to-Video – pojawiają się w wersji beta na platformie Firefly. Narzędzia te umożliwiają:
– Text-to-Video: użytkownik podaje opis tekstowy, a system generuje klip w wybranym stylu, takim jak film fabularny, animacja 3D czy stop motion. Dodatkowo można manipulować ustawieniami kamery, np. kątem czy odległością ujęcia.
– Image-to-Video: umożliwia dodanie obrazu referencyjnego do opisu tekstowego, co daje większą kontrolę nad efektem końcowym. Może to być przydatne np. do tworzenia materiału B-roll z fotografii lub wizualizacji kolejnych ujęć.
Jednak generowane klipy mają pewne ograniczenia – maksymalna długość to 5 sekund, a rozdzielczość sięga 720p przy 24 FPS. Adobe sugeruje, że narzędzie nie zastąpi jeszcze tradycyjnych reshootów, ponieważ w generowanych klipach mogą występować błędy, jak np. przesuwające się tło.
Bezpieczeństwo komercyjne i czas generowania
Każde z tych narzędzi potrzebuje około 90 sekund na wygenerowanie materiału, ale Adobe pracuje nad „trybem turbo“, który skróci ten czas. Firma zapewnia też, że jej modele AI są bezpieczne komercyjnie, ponieważ zostały przeszkolone na treściach, do których Adobe miało prawo. W odróżnieniu od konkurencji, jak np. Runway, który jest krytykowany za wykorzystywanie materiałów z YouTube bez zgody twórców, Adobe kładzie nacisk na transparentność.
Kolejną zaletą jest możliwość dodawania Content Credentials do generowanych wideo, co ułatwia identyfikację, kiedy i gdzie zostało użyte AI. Nowe narzędzia zaprezentowano podczas konferencji Adobe MAX, gdzie firma ogłosiła także inne funkcje AI w swoich aplikacjach kreatywnych.
Przyznaję, że wygląda to ciekawie, ale również niepokojąco – cóż, jestem wciąż AI sceptykiem i nie na wszystkie nowości patrzę skacząc z radości. Dopóki są to narzędzia, które tylko nieco usprawniają, automatyzują lub nawet ratują pracę, to w zasadzie nie mam się do czego przyczepić. Problem może się pojawić, kiedy wspomaganie takich narzędzie pójdzie o krok dalej. Dochodzi do tego jeszcze samo działanie, które jak osoby zajmujące się wideo na pewno dobrze wiedzą, w ostatnich latach u Adobe nie jest mocną stroną, gdyż wydajność ich aplikacji pozostawia wiele do życzenia.