低端图形卡在大型AI船上! 6GB的视频记忆可以产

据报道,该快速技术已于4月20日报道,Github的LVMin Zhang与斯坦福大学的Maneesh Agrawala结合使用,已经发布了FramePack的新技术的突破,该技术可以通过使用域时间视频模型中的固定域时间上下文来更好地生成更长质量的视频。根据实际的尺寸,在FramePack上构建的130亿个参数模型只能通过6GB图形卡产生60秒的视频。 FramePack是神经网络的架构,它使用多级优化技术来完成本地AI视频生成。当前,它基于腾讯hunyuan模型的自定义版本,但是现有的预熟机模型可以通过框架包装进行修复并调整。在形成视频时,典型的视频扩散模型需要首先处理先前形成的噪声帧,然后以更少的噪声预测下一帧。 EA的输入所需的帧数生成的CH框架是时间上下文的长度,这将增加视频的音量。它对视频记忆的要求很高,通常至少12GB。如果视频记忆还不够,那么生成的视频将很短,质量将很困难,并且一代的时间将很长。 FramePack根据输入帧的重要性压缩了所有输入框架,并将其更改为固定上下文长度,从而大大减少了视频内存的需求,并且计算的消耗类似于图像扩散模型。同时,在每种形式形成框架之后,它将实时显示,这对于即时预览很方便。 FramePack还可以减轻“漂移”问题,即增加视频长度和质量降解的问题,以制作更长的视频而无需大量质量牺牲。 FramePack数据格式支持FP16和BF16,以及图形卡硬件SuppORTS RTX 50,RTX 40和RTX 30系列图形卡。除RTX 3050 4GB外,几乎所有现代图形卡都很好。 RTX 20系列和较旧的图形卡尚未得到证明,也没有提及AMD和Intel处理器的要求。操作系统支持Windows和Linux。在性能方面,在TeaCache优化后,RTX 4090每秒可产生约0.6帧。 [本文的结尾]如果您需要打印,请务必给出来源:Kuai技术编辑:Shangfang Wenq