https://x.com/YTkexue/status/2020257827957158239看了不少 Seedance 2.0 的样片,简单说几句感受。
现在很多人其实没抓到重点。讨论的无非是一致性很牛or提示词遵循很强,比如给到非常细的提示词:0–3 秒出什么效果、3–5 秒出什么效果。
说实话,这种一看就不是影视行业的人,更像是纯玩 AI 的。
因为不管是一致性,还是提示词遵循,本质上都是 Veo 3 半年前就已经玩明白的东西,并不是什么新能力。
Seedance 2.0 真正恐怖的地方(如果真如demo演示)在于:
它表面是一个视频生成工具,实际上干的是导演 + 剪辑的活。
放在今天的流程里,我们做一个完整成片早就已经高度流程化了:
分镜提示词 → 分镜生图 → 图生视频。
在香蕉 Pro的工具加持下,一致性这件事完全可以做到不输 Seedance 2.0,甚至因为每一张分镜都能单独调整,可控性反而更强。
真正拉开差距的,从来就不在一致性,而在分镜处理和剪辑能力。
同样的素材,给不同的人剪,结果天差地别。
这和素材本身关系不大,本质是剪辑思维的差距:
分镜和分镜之间如何找剪辑点,哪怕只错几帧,观感都会完全变样。真的干过几年剪辑的,都知道我在说什么。
而这套经验,正是影视从业者相对于AI视频玩家最大的壁垒,也是他们一直以来的护城河。
Seedance 2.0的出现,真正可怕的是:它在直接拆这条护城河。
我看到的 Seedance 2.0 成片,厉害的并不是一致性,而是那种非常自然、甚至接近专业剪辑水平的分镜切换。
更要命的是,要做到这种效果,甚至不需要你精确指定每几秒切一个分镜,只给一个统筹层面的提示词就够了。
而在过去,我们想要同样的观感,需要手动调分镜,
切得太硬还得额外补素材做过渡。
现在用 Seedance 2.0,这一步直接被模型吃掉了。
我不知道字节给 Seedance 2.0 喂了多少素材,才把模型推到这个层级。
但至少从这次展示来看,字节这条路线,是真的走对了。