• 我的订阅
  • 科技

首个3d人像视频生成模型来了

类别:科技 发布时间:2023-02-22 19:23:00 来源:浅语科技

只需1张普通照片,就能合成全角度动态3D视频。

首个3d人像视频生成模型来了

眨个眼、动动嘴,都是小case~

首个3d人像视频生成模型来了

最近AIGC爆火,3D人像模型生成这边也没闲着。

如StyleNerf、StyleSDF、EG3D等方法相继出世。

但到目前为止,这种生成模型都还停留在单帧人像上。

最近,来自新加坡国立大学(NUS)和字节跳动的研究人员,在静态3D模型的基础上,提出了首个3D人像视频生成模型:PV3D(3DmodelforPortraitVideogeneration)。

首个3d人像视频生成模型来了

PV3D的训练继承了3DGAN模型的优点,即无需动态的三维数据监督,只需要在足够数量的单视角2D视频数据上进行训练。

该生成框架将人像和动作进行解耦,基于视频的时间戳生成各自的三维表征,让视频可以从任意角度进行渲染。

长视频也能挑战:

首个3d人像视频生成模型来了

3D动态人像生成

PV3D分别从独立的高斯分布中采样随机噪声来表征外表和运动,外表噪声生成视频的主体内容,控制人像的ID以及人脸的各个部分,运动噪声配合视频帧的时间戳控制当前帧的动作。

为了确保生成内容的真实性以及外表和运动的解耦,PV3D训练两个独立的判别器分别判定外表和运动的合理性。

该方法可以生成随机的人像视频以及相应的高质量的动态几何表面,让视频可以从任意角度进行渲染。

同时,该方法可以支持下游的应用任务,比如静态人像驱动,人像视频的重建以及对人像动作的修改,所有的结果均可以保持高的多视角一致性。

首个3d人像视频生成模型来了

主流的3DGAN模型都脱胎于 StyleGAN结构。

因此这些模型均会将采样得到的噪声先映射到一个高维度的中间隐式编码 (intermidatelatentcode),大量现有的研究表明这种结构的隐式空间包含了丰富的语义信息,可以用来控制生成的图像内容。

因此,最直接的拓展方式就是使用预训练的单帧3DGAN模型,通过学习一个额外的在隐式空间进行推理的时序模型对生成的内容进行合理的改变,从而生成3D人像视频。

然而,该方法的缺点是图片生成器和时序推理模型在不同的阶段分别被优化,导致最终的视频很难保持时间上的一致性。

另一种主流的视频生成模型使用稀疏训练的方式,在训练阶段直接随机生成视频中的少量帧,使用少数帧的时间戳编码运动信息,进一步的改变中间隐式编码从而一次性优化完整的生成器。

然而这种做法将全部的时序信息都包含在隐式空间中,导致最终的模型多样性较差、生成质量较低。

与上述方法不同,PV3D在原有GAN模型的基础上在特定尺度的生成模块中插入运动信息的编码层,这些编码层独立地将控制运动的噪声映射为隐式编码,使用modulatedconvolution操纵外表特征,再将操纵后的特征与原始特征融合,从而提高生成视频的时序一致性和运动多样性。

此外,本工作还研究了以下问题:

如何有效地在视频生成任务中利用渲染的视角先验信息

针对3D视频生成,如何设计合理的外表和运动判别器

首个3d人像视频生成模型来了

PV3D模型基于最新的静态3DGAN模型EG3D进行开发,EG3D采用高效的3D表征Tri-plane实现图像生成。

在训练阶段,PV3D采用稀疏训练的策略,对于一个视频采样两个噪声、两个时间戳以及各自时刻对应的相机视角。

相对应的,模型生成两帧对应的3D表征进行渲染得到粗糙的结果。随后使用超分辨率模块将图片上采样。

PV3D设计了两个独立的判别器监督网络的学习,其中视频判别器会编码两帧的相机视角以及时间间隔去判断生成结果的合理性。实验部分评价指标

研究人员使用FVD来评估生成视频的质量。此外,为了评估多视角的一致性以及3D几何结构的质量,研究人员将3DGAN工作中常用的评价指标(生成人像的ID一致性、Chamfer距离、多视角的重投影误差)拓展到视频任务中。与基线的对比

研究人员首先采用同期的3D视频生成工作3DVidGen作为基线。此外,研究人员还基于SOTA的单帧3DGAN(EG3D和StyleNerf)和2D视频生成模型构建了三个基线模型。在3个公开数据集(VoxCeleb,CelebV-HQ,TalkingHead-1KH)上的实验结果表明,PV3D在生成视频的多样性,3D几何的质量,以及多视角一致性上均超越基线模型。

首个3d人像视频生成模型来了

消融实验

研究人员对PV3D的各部分设计进行了消融实验,例如:运动信息的编码和注入的位置,运动信息的插入方式,相机视角的采样策略,以及视频判别器的设计。

首个3d人像视频生成模型来了

团队介绍

目前,该论文已被ICLR2023接收。

作者团队由新加坡国立大学ShowLab和字节跳动组成。

首个3d人像视频生成模型来了

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2023-02-22 21:45:12

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

音频驱动人像视频模型:字节Loopy、CyberHost研究成果揭秘
...运动信息依赖,抛弃了空间模版的限制,最终生成更好的人像运动。这就不难理解为什么 Loopy 可以仅仅依靠音频,不需要任何空间辅助信号就可以生成自然逼真的人像视频了。除此以外,
2024-09-13 13:34:00
AI拜年火了,通义千问上线一张照片生成拜年视频
...定制全家福照片。目前国内外已经涌现了一批优秀的单人人像生成应用,但都无法满足全家福这一多人人像生成需求。相比单人人像生成,多人人像生成难度更高、技术更复杂。针对该问题,阿里通
2024-02-05 13:37:00
旷视开源的AI人像视频生成太炸了!输入照片即可模仿任意表情包
...机器之心编辑部日前,旷视科技发布了一项新的开源 AI 人像视频生成框架 ——MegActor。基于该框架,用户只需输入一张静态的肖像图片,以及一段视频(演讲、表情包、rap)
2024-06-28 09:41:00
智谱AI“中国版Sora”实测:6秒视频排队2分钟,猫猫很可爱,人手很翻车
...效果,以下是几个官方放出的文生和图生视频案例,覆盖人像、动物、3D卡通等场景:从Demo来看,清影的生成效果虽然相比Sora等还有一定进步空间,但就整体而言流畅度、运动幅度等
2024-07-27 09:18:00
Pika、阿里同日炫技!国产视频大模型奋起直追
...的挑战。EMO不仅可以生成任意时长的说话视频,还能生成人像整个头部都发生丰富变化的说话视频,表情、五官、姿势都会产生非常自然的变化。在AI多模态领域,科技巨头、明星初创企业似
2024-03-01 09:26:00
刚刚,重磅发布!阿里、腾讯、科大讯飞在列
...、抖音短视频(APP)等应用于图像、视频生成场景,基于人像理解技术和视频剪辑技术实现对用户上传图片或视频的渲染处理与格式转换
2023-06-20 17:00:00
我国自研视频大模型面向全球上线
...生视频”板块中,利用“角色一致性”功能,用户可上传人像图或自定义的角色图,通过文字描述就可指定图中角色在任意场景中做任意动作。该功能简化了视频制作流程,也提升了创作自由度。据
2024-08-02 03:11:00
...的预期。但直到第三代模型出来之前,我都不敢用它训练人像图片,因为(模型)对人像的五官无法正常表现,理解误差大,直到第三代模型专门针对人像进行了优化。”田海龙指着手机上他用不同
2024-03-04 09:42:00
视频大模型Vidu发布3个月后正式全球上线 记者实测
...图生视频”板块中,Vidu的角色一致性功能令用户可上传人像图或者自定义的角色图,然后通过文字描述指定该角色在任意场景中做出任意动作。“目前业界对类Sora视频模型的评价主要围
2024-07-31 16:06:00
更多关于科技的资讯: