Golpea de nuevo 😌 Kling AI lanza VIDEO 2.6, un modelo de sincronización audiovisual nativo. Al igual que el Veo 3, el modelo puede generar sonido directamente, sin depender ya del doblaje externo ni de la síntesis de posproducción. incluir: • Diálogos de varios caracteres en chino e inglés Piscis • Efectos de sonido ambientales (viento, pasos, sonidos de colisión, etc.) • Voz emocional (atmósferas como tensión, relajación y misterio) El sonido y las imágenes están sincronizados de forma natural, con movimientos de labios, ritmo y atmósfera consistentes. Las imágenes y el audio se generaron a través de un único proceso de inferencia utilizando el mismo modelo. Sin ser modular ni estar empalmado, evita los "movimientos de labios desalineados y las emociones inconexas" que se encuentran en los videos de IA tradicionales. Admite generación de 5/10 segundos, 1080P. El personaje puede hacer: • Hablar con más naturalidad • Las emociones y la voz son consistentes • Las expresiones faciales coinciden mejor con el diálogo Ya no es necesario buscar materiales originales para efectos de sonido ambiental. El sistema puede hacer coincidir automáticamente la imagen: • Efectos de sonido para diversas escenas, incluyendo lluvia, olas y viento; • Pasos, golpes de puertas y sonidos de fricción; • Explosiones y ruidos mecánicos. El video 2.6 es más estable que su predecesor en términos de acción, transiciones de cámara y ritmo de la historia. • Las transiciones entre escenas son más naturales. • Los personajes muestran mayor consistencia en las diferentes tomas. • Las acciones son menos propensas a caídas repentinas de fotogramas.
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.