4Real-Video-V2:融合視點時間注意力機制與前饋重建的4D場景產生方法 貢獻: 1)一種新穎的兩階段 4D 生成框架,產生影像網格並將其轉換為高斯橢球體。 2)一種融合視圖和時間注意力機制,能夠有效率地產生參數化的 4D 視訊。 3)一種前饋模型,可從多視角視訊中聯合恢復相機參數和高斯粒子。
論文連結:htarxiv.org/abs/2506.18839目:https://t.co/qOwzuYdqPe
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。
共 2 則推文 · 2025年11月4日 清晨7:46
4Real-Video-V2:融合視點時間注意力機制與前饋重建的4D場景產生方法 貢獻: 1)一種新穎的兩階段 4D 生成框架,產生影像網格並將其轉換為高斯橢球體。 2)一種融合視圖和時間注意力機制,能夠有效率地產生參數化的 4D 視訊。 3)一種前饋模型,可從多視角視訊中聯合恢復相機參數和高斯粒子。
論文連結:htarxiv.org/abs/2506.18839目:https://t.co/qOwzuYdqPe