
28号即梦3.0ai视频模型全量开放了,其实提前几天拿到内测名额就很激动的想分享出来了。
奈何“官方不让”。
这一次的升级,最被玩疯的就是一条视频直接包含多个分镜头,并且还能保持很大程度的一致性,目前这一点只有即梦能做到了。
看看效果:

简直了,要不是时长有限制,我感觉提示词要足够长,直接给你一部小电影就给你干出来了,10秒钟的镜头,切换了几次镜头,还没有什么违和感,一个字,牛逼~
当然还有很多亮点,目前即梦3.0视频模型被称为是六边形战士,啥啥都强,再加上可以同时生成多个分镜的效果,我感觉综合能力目前是最强的,尤其是大家都关心的,便宜啊~
5秒视频才10积分,生成效果还很好,也不用反复测试浪费积分,性价比直接拉满了~
针对即梦3.0视频模型这次的升级,我还特意把我自己用的ai视频脚本提示词框架也进行了升级,比之前出脚本的能力更强,前后一致性更强,分镜能力更强,还有音效,视频生成提示词,全部整合到了一起。

这套框架也可以说是六边形战士。
即梦3.0ai视频模型+ai视频脚本提示词框架,让你做视频的门槛拉到最低,人人都能写出不错的脚本,生成镜头感十足的视频。
今天就来分享两者的使用,顺便测试下即梦3.0视频模型的能力,看看抗不抗打。
整体能力升级:
1.动态效果出众。动作更加自然,符合自然规律,甚至跳舞都行,生成的稳定性也更强,情绪表现自然。
2.精准响应指令,也就是更听话了,包含能够在提示词里写清楚多个分镜头,它就能够根据意思生成分镜,实现镜头切换,然后情绪的描述也能理解到位,甚至还会补全你没有提到的内容。
比如输入我这一套提示词之后,ai先给我出了一个荒漠独行者的脚本。

我直接用文生视频生成的,没有用图生视频。
首先看第一个镜头,包含了三个分镜,背影走在沙漠上,然后快速切换到近景人物上半身,人物转身,然后是一个蓝色物品的特写,体现独行者看到了一个新东西停下了脚步。

看下效果,三个分镜就这么在一条视频里生成了,这要是以前,你至少得生成三个视频,麻烦一点你就需要生成三张图片,然后分别转成视频,但是问题就是,一致性是个问题,尤其是有人物出现的镜头。
同时你还要注意人物脸部的变化,人物扭头那种被某个东西吸引的感觉,而不是冷冰冰毫无表情的脸。

再看接下来的脚本是独行者看到地上的装置去触碰,可以看下效果,稍微有些瑕疵,但是处理一下还是能用的。尤其是远景近景的切换,装置的一致性也保持了,人物的一致性也保持了,并且即使第三个镜头回切到人物,人物还是保持一致的。
感觉即梦3.0内置的设定里面就是控制好的,同一条生成的视频里面的角色会控制保持一致。

再来看最后这个镜头,因为触碰装置然后引起了异变,人物脸部的表情变化,先是惊恐,然后好奇的往前走,镜头倒退展现环境全貌,然后切换到人物看到的视角,整个环境中的龙卷风和大地的裂变。
然后画面如果想保持一致性,提示词中也最好控制,这个在ai视频脚本提示词框架当中有一定约束了,但是你自己生成脚本之后,也要根据里面提示词的锚点,复制到每次生成的提示词当中,这样每条视频关联性就会更强。

当然还有测试的例子有绘本故事的,图片分镜是豆包新升级的功能——超能创意1.0,一次性生成的。
画面如下:

然后全部可以再用即梦3.0生成视频,效果也会非常不错,都没花多长时间。