Irmãos O vídeo com IA produziu mais uma surpresa... Alguém está prestes a derrubar Hollywood de novo...🤣 LTX-2: Modelo de Geração de Vídeo Cinematográfico É capaz de gerar um vídeo de alta definição 4K com narrativa completa de 20 segundos, com som e sincronização labial, tudo de uma só vez. Confira os resultados ↓ Ele pode gerar vídeos automaticamente com base em texto, imagens e até mesmo esboços. Ele também consegue sincronizar perfeitamente as ações, os diálogos, os sons ambientes e a música na imagem. E precisa ser de código aberto, você consegue lidar com isso? Este modelo foi criado pela Lightricks (uma renomada empresa de software criativo, desenvolvedora do Facetune e do Videoleap)... Ainda mais impressionante é: A Lightricks planeja disponibilizar gratuitamente os pesos do modelo, o código e os benchmarks de desempenho ainda este ano. 😅 A seção seguinte se concentrará em apresentar as funcionalidades deste modelo e mostrar alguns exemplos... O vídeo a seguir é de: @heyrobinai
O vídeo gerado pelo LTX-2 apresenta uma narrativa completa e controle perfeito da câmera. Olha só essa foto... As dimensões controláveis incluem: Trajetória da câmera Movimento do objeto Temporização de quadros Estilo (Iluminação / Cor / Estilo LoRA) Ritmo narrativo (Duração da cena / Cortes) Vídeo de: @EugenioFierro3
Principais características e funcionalidades
Uma cena cinematográfica completa gerada a partir de uma única palavra-chave. Desvende a narrativa em 20 segundos — cenas repletas de emoção, ritmo e história. Vídeo de @fal
Suporta vários estilos O LTX-2 possui um mecanismo de sintonia LoRa integrado. Isso permite treinar um "modelo de estilo personalizado" usando uma quantidade limitada de material. por exemplo: A marca deseja manter um estilo visual consistente (cores, fontes, linguagem da câmera). O estúdio de animação queria que os personagens mantivessem uma aparência consistente em várias cenas.
Executa localmente + Totalmente de código aberto Outra grande vantagem do LTX-2: Ele pode ser executado localmente em GPUs de nível consumidor (RTX 4090 / Mac Studio); O código-fonte, os pesos do modelo e o processo de treinamento estarão disponíveis no outono de 2025. Apoia a pesquisa, o desenvolvimento secundário e a inserção personalizada.
Mais exemmp.weixin.qq.com/s/kO2-bAzvwv5m…avras-cmp.weixin.qq.com/s/kO2-bAzvwv5m…2hU3H4 ltx.video https://t.co/Pykz2hU3H4 Experimente online: https://t.co/BZHha1pgrS
