它把传统的「文生图+图生视频+逐帧拼接」这套繁琐流程,直接压缩成「写剧本→出视频」,是一个让AI视频制作门槛大幅降低的新工具。
圈友@天才老师 第一时间深度测试后,用10元复刻了一条近亿播放的爆款视频,2天产出5条视频播放量破百万。他把完整的实操流程、分镜方法论和避坑经验都写了出来。
如果你对Seedance 2.0感兴趣,或者想做AI视频却不知道从哪入手,这篇建议你看完。
最近Ai视频圈的海啸级别的模型实在是太让我震惊了。今天想和大家聊一下这个即梦推出的Seedance 2.0模型。
在我看来它做了一件很重要的事:把传统的Ai视频制作方式的「剧本 → 分镜 → 文生图 → 图生视频 → 剪辑」这一整套流程,直接压缩成了「故事剧本 → 出视频」。
这让视频制作的门槛降得极低,且下限抬得很高,当然,想要更高质量的视频的话,还需要一定程度的抽卡筛选镜头和剪辑技巧。
这意味着什么?我来给大家算一笔账。
1、先说说老流程有多折磨人
以前做一个60秒的YouTube Shorts视频,按照3秒一个镜头算,至少需要20个分镜。
这20个分镜意味着什么呢?你得先想好每一个镜头的首帧画面长什么样,然后用文生图模型生成角色参考,再用角色参考图去图生图,生成20张首帧图片。
接着用图生视频模型把这20张图变成20个视频片段,最后再用剪辑工具把它们拼起来,还得配音、加字幕、加转场、加背景音乐……
整个流程下来,说实话,挺折磨人的。
平均每个镜头的首帧需要抽卡4次,每个镜头的视频需要抽卡3次以上。
一个60秒的成品视频积累下来的素材量:
首帧图大约80张,视频素材大约60个。
图片生成价格为0.2元/张,
视频生成价格为0.18元/个,
一个60秒成品视频的最低花费:
这还是保守估计。实际工作中,遇到比较复杂的镜头,可能还得调用2.7元/5s的海螺2.3模型来补抽,
一个视频的成本轻松突破30元。