比Sora好用的AI视频工具

摘要:很多小伙伴都是铁杆粉,熬夜不睡,为了第一时间追这个热点。我也没例外,熬到12点半,但眼皮实在撑不住,就决定先去睡觉了。

昨天凌晨,sora上线了。

很多小伙伴都是铁杆粉,熬夜不睡,为了第一时间追这个热点。我也没例外,熬到12点半,但眼皮实在撑不住,就决定先去睡觉了。

早上一睁眼,赶紧打开电脑,直接去sora官网。映入眼帘的是24个视频,它们排列得整整齐齐,这些视频非常丰富。

有的展示了人物风采,有的描绘了大海的壮丽,让我印象最深的是一个视频:一颗小种子在泥土中破土而出,发芽、生长的过程被拍得很细致,种子上的小毛孔都能看得很清楚,特别逼真。

迫不及待想亲自体验一下这种震撼,但当我尝试用谷歌账户登录时,它却提醒我,因为用户量太多,sora账户无法使用。

哎,这就像大夏天想喝冰镇可乐,却发现杯子里什么都没有,既期待又失落。我相信身边也有很多朋友想体验但没能体验到。

不过,没关系,这里有几款AI视频生成模型做出来的效果,并不比sora差。在我心中排在第一位的,你猜是哪款?腾讯混元文生视频。

为什么呢?

想必上一周,你也刷到了腾讯混元文生视频开放的信息,它在GitHub、Hugging Face和各大技术报告中都能找到。

如果想亲自体验,可以直接去官网试用。在官网上,你能看到很多逼真的人物视频。不过,要注意,这些展示视频可能经过了多次调整。

目前,腾讯混元的视频模型,虽然只能实现文字生成视频的功能,但它在很多方面表现出色,比如画面质量、镜头切换效果、物体运动表现,以及对提示词的理解等。

你只要输入一段文字描述,它就能生成一段5秒钟的视频。中文和英文的提示词都可以使用,生成的视频画面非常真实,看起来就像电影一样。

刚内测时,我测试了近景、中景、广景、特写等类别。现在这些视频还在空间里。我给近景的提示词是「一只猫在草地上散步的场景」。

我选择了写实风格,配上自然光效果,用专业镜头拍摄,追求高质量画面。最终的效果非常真实,完全能以假乱真。

特写方面,我在成都一个热闹的小吃街上,主播穿着四川特色的服装,头上戴着可爱的熊猫耳朵发箍。她正在品尝麻辣串串,背景是熙熙攘攘的小吃街,还有各种诱人的美食。生成的效果也不错,不至于让人感到不适。

至于其他类别,你可以自己试试。我发现,腾讯在产品细节方面做得很不错,它能把风格、标签、类型、氛围和光线都展示得很清楚。

从提示词来看,腾讯做得比其他产品好,其他产品的提示词可能让你写一段话再生成,但生成的内容往往和你想要的有差距。在这方面,腾讯的产品设计更人性化。

现在它每天以速度优先能生成5个视频,以质量优先能生成2个。但我觉得,在质量和速度上,两者的差异并不大。

第二个产品是什么呢?字节的即梦AI。

即梦AI,真的很懂我想要什么,不用复杂的提示词,都能搞定一切。

说到即梦,不能不提两个软件。一个是剪映,很多剪视频的人都用过。它简单易用,就像剪辑界的“傻瓜相机”。无论是新手还是老手,大家都挺喜欢的。

我记得早些年时,即梦不叫即梦,叫「Dreamina」,那时它还是剪映里的一个功能,后来才独立出来,并同时推出了一些新功能。

另一个要提到的是抖音。我不知道你有没有刷到过那些把古典影视剧剪辑成搞笑段子的视频,还有AI生成的写真照,这些基本都来自即梦的小工具。

至于能力上,文生视频、文生图自然是不可缺失一部分,拿文生图来说,我小绿书上所有的图片几乎都是用它制作而成。

在视频上,即梦AI目前有四个模型,分别是视频S2.0、视频2.0PRO、视频P2.0Pro和视频1.2。我试过这几个模型,它们各有特点。

S2.0擅长捕捉流畅感,可以把一张图的色彩和细节平滑过渡到视频里。2.0PRO则更擅长把图片变成视频,做得更精细;P2.0Pro能理解复杂指令,在一句提示下实现多个镜头切换,同时保持视频的形象、风格和氛围一致。

至于视频1.2模型,主要在运镜和时长上下功夫。

最近,1.2模型正在测试一个新功能,叫动效画板,这个功能很强大,因为它能让你细致调整视频中物体的运动轨迹和最终状态,就像在视频里给物体设定一套动作。

具体来说,动效画板能做很多事情。比如:

单主体形变、多主体运动、主体互动、主体与背景互动、自定义轨迹、自动框选主体或背景等等,一开始,我看着术语也有点晕,实际用起来发现并不复杂。

对了,如果你想用在商业上,字节旗下的「即创」是不错的选择。它在电商领域特别受欢迎,功能包括智能剪辑、数字人制作视频、AI视频脚本、图文工具和直播工具等等。

所以,我觉得在电商这块,「即创」比「即梦」用得更高频,至于“即梦”,可能更适合娱乐场合,你都可以试试看。

第三个要提到的AI视频工具是:Kimi。

要找到Kimi,得在聊天界面下面留意一下,那儿有个不太显眼的按钮,上面写着:Kimi创作空间。点进去,就能看到它的宣传语:“你喜欢的歌都有它的视频”。

我们可以把Kimi的这个功能叫做:文生音视频。如果拿Kimi和即梦AI比较,从整体产品来看,Kimi可能不如即梦AI,它们之间的差别挺大的。

但是,Kimi也有自己优势,它能细致到视频的每一帧。

比如:我要做一个10秒的视频,在Kimi后台可以看到,这10秒的视频可能包含10帧或者12帧,每一帧都是一张图片。

如果对某一帧图片不满意,我可以调整提示词,让它重新生成。所以,我觉得Kimi在细节处理上做得挺好的。

第四个要说的工具是腾讯智影,它也是腾讯推出的。

我现在觉得,AI视频工具大概分两类:一类是用来玩的,比如做艺术照、艺术视频、国风短片、科幻视频这些。

另一类更偏向实用,比如剪视频、识别字幕、抠图、做动态漫画、去掉背景,还有制作视频解说等等。

腾讯智影更偏向实用,它里面的小工具用起来很方便,很多人想找AI数字人,腾讯智影是个不错的选择。你只需要选个角色,输入文字,它就能帮你生成数字人播报的视频。

还有一点,腾讯有个很大的优势,就是它手里有很多视频素材的版权。像那些流行的剧短片、短剧里的素材,都能直接在腾讯智影里找到,而且是免费的。

这一点比其他平台强,至少不用担心版权问题,我每次找不到素材,就会去腾讯智影里搜一搜。

最后一个要提到的是可灵。可灵是快手推出AI视频工具,现在有两个模型,一个是可灵 1.0,一个是可灵 1.5;它没有明确区分场景和人物,我用的时候也搞不清哪个模型适合近景、远景或者人物。

它支持文字生成视频和图文转视频,但用下来感觉有些地方还不够好。比如,生成的视频看起来还有点AI味道,这方面的确有提升空间。

不过,如果是用来做短视频创作,只要提示词写得好,生成的效果基本能满足日常需求。

我也用过不少国外的工具,说实话,国外产品在多模态功能上确实比国内的一些强,但网络问题太麻烦了。

我试过好几款,每次上传几十兆的视频或者十几兆的照片,都要等很久。等它生成完视频再下载,时间耗光不说,耐心也没了。

后来我就想,能不能试试国内的工具?现在看来,完全没问题。国内的AI视频生成技术已经很强了,甚至用起来比国外的还更顺手。

说到这,我想起前两天看到一篇国外的文章,讲的是为什么AI做的艺术看起来那么廉价。文章提到,像DALL-E和Midjourney这样的AI,需要用大量数据来学习,但光靠提示词是不够的。

比如:

AI要画「宇航员骑马」这种图,还是会有挺多问题,看着怪里怪气的,不够真实。

这些AI做出来的图,不管是显眼的地方还是不明显的地方,都可能有问题。因为AI太依赖数据,它没法准确画出人的手到底长啥样。

心理学家和AI评论家加里·马库斯(Gary Marcus)也说过:AI处理不了数据里没有的东西,这部分是人类想象力的领域。就算是最新的AI模型,你让它画「宇航员骑马」,它画出来的图还是会带着一种很明显的“2020年代中期”的风格。

你玩得越多,就越明白,要从AI视频里得到真正有趣的原创内容有多难;所以,AI最擅长的,可能就是让网上充满了那种平庸、短暂的艺术作品。

艺术家戴尔·沃克(Del Walker)在X平台上写道:用AI图片做营销,就等于告诉大家你没预算,就像背了个假的香奈儿包,品牌形象一下子就low了。

所以,我觉得,文生视频的竞争力就在这些细节上。

不管是Sora还是其他工具,大家评价一个视频有没有艺术感,主要看细节;而这些细节,一部分可以交给AI处理,但另一部分还得靠人类的创意和后期加工。

上述提到的腾讯混元文生视频、即梦AI、Kimi、腾讯智影、可灵,是我用着还不错;当然,清影AI、viduAI、HaiperAI也算领头羊,都可以试试看。

来源:王智远一点号

相关推荐