输入“/”快速插入内容

实测豆包AI视频模型Seaweed,击败Sora的含金量到底有多少?

2024年10月27日修改
📌
原创:AI沃茨
公众号:卡尔的AI沃茨
前天 AI 视频界迎来了 iphone🍏 时刻,
字节正式发布了两款全新的 AI 视频模型,
PixelDance 和 Seaweed
PixelDance 核心亮点是“人物复杂连续动作”,“多镜头组合”和“运镜控制”。
光这个视频就值得我跳起来点三个赞!
但现在一个都测试不到,从目前透露出的各种 PixelDance 素材来看,应该是极少数人拿到了内测资格。
不知道跟前段时间 GPT 语音模式内测比起来,哪个名额少。
幸运的是,我 get 到了 Seaweed 模型的内测!
可能大家会跟我有一样的疑问,
PixelDance 和 Seaweed 有啥联系?区别是啥?
它们使用的模型结构不同,使用定位也不同,
那,Seaweed 会是一个有着 PixelDance 的部分超能力,但成本更低速度更快的模型吗?
所以这次评测我会按照 PixelDance 的新能力作为主要维度,其他主流 AI 视频工具的痛点作为辅助维度,第一时间分享我的 Seaweed 上手体验~
Here we go!
一. 人物复杂连续动作
从材料上看,PixelDance 能在10s内完成3个连续动作,
而主流的AI视频工具单次生成通常是出一个动作,常规的有眨眼、挥手、摇头等运动幅度较低的动作。
就是因为大幅度的动作会让整个画面崩掉,要完成一系列连续的动作,我们往往需要将分镜拆得更加细致,从剪辑层面上完成连续动作。
我们来用相似的画面来对比 PixelDance(上)和Seaweed(下)的效果:
PixelDance
Seaweed