Seedance 2.0 est le modèle vidéo IA de nouvelle génération de ByteDance et le premier générateur vidéo commercial conçu autour d'une génération audio-vidéo multimodale unifiée — le modèle prend en entrée du texte, des images, de l'audio et de la vidéo simultanément et produit une sortie synchronisée plutôt que de traiter l'audio comme une étape de post-traitement. Comblant le vide laissé par Sora, il a gagné une traction significative en 2026.
La fonctionnalité phare est la synchronisation labiale au niveau du phonème en 8+ langues : lors de la génération de dialogues, les mouvements de la bouche s'alignent précisément avec les phonèmes prononcés, et pas seulement avec les pics grossiers de la forme d'onde — le rendant utilisable pour les contenus centrés sur des personnages où les répliques parlées doivent paraître crédibles. Chaque génération produit des vidéos jusqu'à 15 secondes en 1080p, et dans cette fenêtre, le modèle peut restituer plusieurs plans avec des coupes et des transitions naturelles, de sorte qu'une seule sortie peut ressembler à une séquence montée plutôt qu'à un clip continu unique.
Seedance 2.0 prend en charge des images, de l'audio et de la vidéo comme références, donnant aux créateurs un contrôle sur la performance, l'éclairage, les ombres et les mouvements de caméra. Les tarifs vont d'un niveau gratuit à des plans entreprise jusqu'à 167 $/mois, et le modèle est également accessible via l'API fal.ai pour les développeurs qui construisent des pipelines vidéo. Après la fermeture de Sora par OpenAI en mars 2026, Seedance 2.0 est devenu l'une des options les plus crédibles pour les créateurs ayant besoin d'une sortie audio-vidéo synchronisée avec une forte cohérence narrative.
Laisser un avis
Les avis sont publiés après modération. Nous ne partageons pas votre email.