Seedance 2.0 es el modelo de vídeo IA de próxima generación de ByteDance y el primer generador de vídeo comercial construido en torno a la generación conjunta multimodal audio-vídeo unificada — el modelo toma entradas de texto, imagen, audio y vídeo juntas y produce salida sincronizada en lugar de tratar el audio como un paso de postprocesamiento. Llenando el vacío post-Sora, ha ganado tracción significativa en 2026.
La capacidad estrella es lip-sync a nivel de fonemas en 8+ idiomas: al generar diálogo, los movimientos de la boca se alinean con precisión con los fonemas hablados, no solo con picos aproximados de la onda — lo que lo hace utilizable para contenido basado en personajes donde las líneas habladas deben parecer creíbles. Cada generación produce vídeos de hasta 15 segundos a 1080p, y dentro de esa ventana el modelo puede renderizar múltiples tomas con cortes y transiciones naturales, de modo que una sola salida puede sentirse como una secuencia editada en lugar de un solo clip continuo.
Seedance 2.0 admite imagen, audio y vídeo como referencias, dando a los creadores control sobre la actuación, iluminación, sombra y movimiento de cámara. Los precios van desde un plan gratuito hasta planes empresariales de hasta $167/mes, y el modelo también es accesible a través de la API de fal.ai para desarrolladores que construyen pipelines de vídeo. Tras el cierre de Sora por parte de OpenAI en marzo de 2026, Seedance 2.0 se ha convertido en una de las opciones más creíbles para creadores que necesitan salida audio-vídeo sincronizada con fuerte consistencia narrativa.
Dejar una reseña
Las reseñas se publican tras moderación. No compartimos tu email.