Adobe zasugerowało kolejne nowości w swoich narzędziach generatywnej AI do edycji wideo, w tym funkcję, która potrafi tworzyć klipy wideo z nieruchomych obrazów. To zapowiedź dalszego rozwoju modelu wideo Firefly, który Adobe po raz pierwszy zaprezentowało w kwietniu. Model ten ma zasilać funkcje edycji wideo i audio w aplikacjach Creative Cloud.
Nowa promos pokazuje nagrania stworzone przy pomocy technologii Firefly, która pozwala generować klipy wideo na podstawie opisów tekstowych. Użytkownik może manipulować tymi klipami, korzystając z „kontroli kamery”, które symulują kąty widzenia, ruch kamery czy odległość od obiektu. Co więcej, Adobe pokazało funkcję przekształcania obrazów w wideo, co może być użyteczne np. do tworzenia dodatkowych materiałów B-roll lub wypełniania luk w produkcji.
Jeśli przykłady zaprezentowane w teaserze mają cokolwiek wspólnego z finalnym produktem, jakość wygenerowanego wideo nie odbiega od tego, co do tej pory pokazał model Sora od OpenAI, który Adobe również rozważa zintegrować ze swoim Premiere Pro. Problemem jest jedynie długość klipów – Alexandru Costin, wiceprezes Adobe ds. generatywnej AI, zdradził, że maksymalna długość tak wygenerowanych klipów wynosi zaledwie pięć sekund.
Jednak Firefly ma jedną przewagę nad Sorą – obietnicę, że model Adobe jest „komercyjnie bezpieczny”, ponieważ trenowany był na treściach z licencją open, domeny publicznej oraz Adobe Stock. To może zmniejszyć obawy o naruszenia praw autorskich.
Zarówno funkcja tworzenia wideo z tekstu, jak i z obrazów, pojawią się w wersji beta jako część samodzielnej aplikacji Firefly jeszcze w tym roku. Adobe planuje później zintegrować model wideo Firefly z Creative Cloud, Experience Cloud i Adobe Express.
Na dodatek firma pokazała funkcję „Generative Extend” w Premiere Pro, która pozwala na wydłużanie istniejących klipów, podobnie jak w Photoshopie, gdzie można „rozszerzać” tło obrazu. Funkcja ta ma się pojawić jeszcze w tym roku, choć nie podano konkretnej daty.