「Kling O1」模型核心功能解析 這是業界首個實現「多任務一體化」的多模態視訊生成模型。 它能理解文字、圖片、影片等多種輸入,自動辨識你想幹嘛,然後產生你要的影片或編輯現有的影片。 過去:每種任務一個模型。 現在:一個O1 模型全搞定。 O1 模型在底層實現了多種視訊任務的深度融合: - 文字生成影片(Text-to-Video) - 影像/主體參考產生(Reference-to-Video) - 影片修改與增刪(Video Editing & Inpainting) - 視訊風格遷移(Video Restyle) - 鏡頭拓展與縮時敘事(Next/Previous Shot Generation) - 首尾幀約束產生(Keyframe-Constrained Video Generation) 以往需要多個模型或獨立工具才能完成的複雜流程,如今可以在單一引擎中完成。 這不僅顯著降低了創作與運算成本,也為「統一視訊理解與生成模型」的發展奠定了基礎。
1、全能指示:一句話隨意修改影片! 這個功能非常革命性 O1 支援將文字、圖片、主體、視訊等任意模態作為輸入,並進行語意理解和指令解析。 將輸入畫面解析為可執行的命令 使用者可透過自然語言指令對影片進行直接控制編輯: “移除畫面中的路人” “將白天場景改為黃昏” “替換主角服裝為黑色風衣”
2、O1 模型還具有「記憶力」! O1 模型強化了跨模態一致性建模能力,可在生成過程中維持參考主體的結構、材質、光照與風格穩定。 舉個例子: 你上傳一張角色照片(黑人青年穿風衣) 然後讓他出現在不同的鏡頭:街頭、雨夜、外太空… O1 會自動辨識出那是同一個人,造型、膚色、特徵完全一致
甚至能記住多個主體角色和對象 讓不同角色在影片中互動; 保持風格、服飾、姿態一致性
3.超強組合:各種技能自由疊加 O1 模型允許不同任務間進行組合調用,例如: 在影片中同時新增主體並修改風格; 同時進行鏡頭延展與環境變換; 在編輯影片的同時進行語意驅動的光影調整。 透過此機制,視訊生成過程從“單一功能呼叫”提升為“語義級任務編排”, 具備高度的彈性與創新潛力。
4.多模態指令輸入展示 影像參考生成 支援參考圖片/主體裡的角色/道具/場景等多種元素,靈活生成創意影片。
修改視訊主體
風格變換
刪除特定對象
新增特定對象
影片參考 支援參考影片內容,進行產生上一個鏡頭/下一個鏡頭
也可以參考視訊動作/運鏡 進行創意生成
支援添加首幀圖,或同時添加首尾幀圖,並文字描述場景過渡、運鏡軌跡或角色動作,精準控制影片從開始到結束的全過程。
「Kling O1」模型核心功能解析及操作指南 :xiaohu.ai/c/ai-2b1dc7/ai…



