我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
快科技4月20日消息,GitHub的Lvmin Zhang联合斯坦福大学的Maneesh Agrawala,发布了一项突破性的新技术FramePack,通过在视频扩散模型中使用固定长度的时域上下文,可以更高效地生成时间更长、质量更高的视频。
根据实测,基于FramePack构建的130亿参数模型,只需一块6GB显存的显卡,就能生成60秒钟的视频。
FramePack是一种神经网络架构,使用多级优化策略,完成本地AI视频生成。
目前,它底层基于定制版的腾讯混元模型,不过现有的预训练模型,都可以通过FramePack进行微调、适配。

典型的视频扩散模型在生成视频时,需要首先处理此前生成的带有噪音的帧,然后预测下一个噪音更少的帧,而每生成一帧所需要输入的帧数量,就是时域上下文长度,会随着视频的体积而增加。
这就对显存有着很高的要求,一般至少得有12GB,而如果显存不够多,生成的视频就会很短,质量很差,生成的时间也会很长。
FramePack会根据输入帧的重要性,对所有输入帧进行压缩,改变为固定的上下文长度,显著降低对显存的需求,而且计算消耗与图片扩散模型类似。
同时,每一帧画面生成之后,都会实时显示,方便即时预览。
FramePack还可以缓解“漂移”(drifting)现象,也就是视频长度增加、质量下降的问题,从而在不显著牺牲质量的同时,生成更长的视频。

FramePack数据格式支持FP16、BF16,显卡硬件支持RTX 50、RTX 40、RTX 30系列显卡,除了RTX 3050 4GB几乎所有的近代显卡都没问题。
在RTX 20系列和更老显卡上尚未经过验证,也没有提及AMD、Intel处理器的需求。
操作系统支持Windows、Linux。
性能方面,RTX 4090经过teacache优化之后,每秒可以生成大约0.6帧。

【本文结束】如需转载请务必注明出处:快科技
责任编辑:上方文Q
文章内容举报
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2025-04-20 23:45:05
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: