Annoncé en avril par Adobe, le modèle Firefly Video complètera la panoplie de modèles de GenAI déjà dotés de capacités de génération d'images, de dessins et de graphiques vectoriels. La présentation de cet outil par Adobe donne un aperçu des futures fonctionnalités vidéo de l'IA générative et en particulier, la possibilité pour les utilisateurs de créer des clips vidéo à partir de textes et d'images fixes.
Mercredi dernier, Adobe a montré dans une vidéo comment le modèle Firefly Video sera utilisé dans l'application web Firefly attendue dans le courant de l'année. Dans l'application web, les utilisateurs peuvent générer de courts clips vidéo à partir d'invites textuelles, avec des commandes réglables pour les angles de caméra, le mouvement et le zoom. « Ils pourront aussi télécharger des images en tant qu'invites pour transformer des illustrations en clips vidéo », a indiqué Adobe. « La durée maximale des vidéos est de cinq secondes », a précisé un porte-parole de l'éditeur à The Verge. Le modèle de génération Firefly Video « va aider les professionnels de la vidéo à étendre le champ des possibilités, à rationaliser les flux et à soutenir la créativité », a affirmé Ashley Still, vice-présidente senior du Creative Product Group d'Adobe, dans un communiqué.
C'est au début de l'année qu'Adobe a évoqué pour la première fois ses projets de vidéo basée sur la GenAI, dans le cadre de la présentation en avant-première des fonctionnalités de la future version de l'application de montage vidéo Premiere Pro. Adobe avait présenté en particulier la fonction de génération de texte à partir de la vidéo à l'aide d'un outil d' « extension générative » qui crée des images supplémentaires pour allonger un clip vidéo, et de l' « ajout et de la suppression d'objets », qui permet aux monteurs de remplacer des éléments dans une scène (par exemple, changer la couleur de la cravate d'un acteur) ou de les supprimer complètement d'un plan (par exemple, retirer une perche de micro). Ces fonctionnalités de Premiere Pro seront disponibles en version bêta dans le courant de l'année.