CausVid团队 投稿量子位 | 公众号 QbitAIAI生成视频,边生成边实时播放,再不用等了!Adobe与MIT联手推出自回归实时视频生成技术——CausVid。思路就像从下载整部电影到直接观看流媒体的转变,在模型生成首帧画面后,视频便可以即时播放,后续内容则动态生成并无缝衔接。如果你用过视频生成模型,一定对漫长的等待时间记忆深刻,生成一段10秒的视频,往往需要等待好几分钟才可以开始观看。研究团队表示,这一延迟的根本原因在于:传统视频生成模型普遍采用的双向注意力机制,每一帧都需要参考前后帧的信息。这就像写故事时必须先构思好整个剧情的所有细节才能动笔,在完整视频生成完毕前,你看不到任何画面。为此,他们提出了一种全新的解决方案,通过蒸馏预训练的双向扩散模型(DiT),构建自回归生成模型。实验中,CausVid基于自回归生成的特性,无需额外训练就能支持多种应用,生成速度和质量均显著超越现有方法。摘要:CausVid团队 投稿量子位 | 公众号 QbitAIAI生成视频,边生成边实时播放,再不用等了!Adobe与MIT联手推出自回归实时视频生成技术——CausVid。思路就像从下载整部电影到直接观看流媒体的转变,在模型生成首帧画面后,视频便可以即时播放,后续
来源:小英议科技
免责声明:本站系转载,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本站联系,我们将在第一时间删除内容!