형제 AI 비디오가 또 다른 다크호스를 탄생시켰습니다. 누군가 할리우드를 다시 무너뜨리려 하고 있어요...🤣 LTX-2: 영화 영상 생성 모델 사운드와 립싱크를 포함한 20초 분량의 전체 내러티브 4K 고화질 비디오를 한 번에 생성할 수 있습니다. 결과를 확인하세요 ↓ 텍스트, 이미지, 심지어 스케치를 기반으로 자동으로 비디오를 생성할 수 있습니다. 또한 사진 속의 동작, 대화, 주변 소리, 음악을 완벽하게 동기화할 수 있습니다. 그리고 반드시 오픈 소스여야 하는데, 그걸 감당할 수 있나요? 이 모델은 Lightricks(Facetune과 Videoleap을 개발한 유명 크리에이티브 소프트웨어 회사)에서 만들었습니다... 더욱 인상적인 것은 다음과 같습니다. Lightricks는 올해 말에 모델 가중치, 코드, 성능 벤치마크를 오픈 소스로 공개할 계획입니다. 😅 다음 섹션에서는 이 모델의 기능을 소개하고 몇 가지 예를 보여드리겠습니다. 다음 영상은 @heyrobinai에서 가져왔습니다.
LTX-2로 생성된 비디오는 완벽한 내러티브와 완벽한 카메라 제어를 특징으로 합니다. 이 사진을 보세요... 조절 가능한 차원은 다음과 같습니다. 카메라 경로 물체의 움직임 프레임 타이밍 스타일(조명/색상/스타일 LoRA) 내러티브 리듬(장면 길이/컷) 영상 출처: @EugenioFierro3
주요 특징 및 성능
단일 프롬프트 단어에서 생성된 완전한 영화 장면 20초 안에 이야기를 풀어보세요. 감정과 리듬, 스토리가 넘치는 장면들이 담겨 있습니다. @fal의 영상
다양한 스타일 지원 LTX-2에는 LoRA 튜닝 메커니즘이 내장되어 있습니다. 제한된 양의 자료를 사용하여 "사용자 정의 스타일 모델"을 훈련할 수 있습니다. 예를 들어: 브랜드는 일관된 시각적 스타일(색상, 글꼴, 카메라 언어)을 유지하고자 합니다. 애니메이션 스튜디오에서는 캐릭터가 여러 장면에서 일관된 모습을 유지하기를 원했습니다.
로컬로 실행 + 완전 오픈 소스 LTX-2의 또 다른 주요 장점은 다음과 같습니다. 소비자용 GPU(RTX 4090/Mac Studio)에서 로컬로 실행할 수 있습니다. 소스 코드, 모델 가중치, 학습 과정은 2025년 가을에 공개될 예정입니다. 연구, 2차 개발, 맞춤형 삽입을 지원합니다.
더 많은 예시와 mp.weixin.qq.com/s/kO2-bAzvwv5m…kz2hU3Hmp.weixin.qq.com/s/kO2-bAzvwv5m…o/Pykz2ltx.videottps://t.co/BZHha1pgrS
