• 我的订阅
  • 科技

ECCV 2024 | 南洋理工三维数字人生成新范式:结构扩散模型

类别:科技 发布时间:2024-08-13 09:36:00 来源:机器之心Pro

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com

该论文作者均来自于新加坡南洋理工大学 S-Lab 团队,包括博士后胡涛,博士生洪方舟,以及计算与数据学院刘子纬教授(《麻省理工科技评论》亚太地区 35 岁以下创新者)。S-Lab 近年来在顶级会议如 CVPR, ICCV, ECCV, NeurIPS, ICLR 上发表多篇 CV/CG/AIGC 相关的研究工作,和国内外知名高校、科研机构广泛开展合作。

三维数字人生成和编辑在数字孪生、元宇宙、游戏、全息通讯等领域有广泛应用。传统三维数字人制作往往费时耗力,近年来研究者提出基于三维生成对抗网络(3D GAN)从 2D 图像中学习三维数字人,极大提高了数字人制作效率。

这些方法往往在一维隐向量空间建模数字人,而一维隐向量无法表征人体的几何结构和语义信息,因此限制了其生成质量和编辑能力。

为了解决这一问题,来自新加坡南洋理工大学 S-Lab 团队提出结构化隐空间扩散模型(Structured Latent Diffusion Model)的三维数字人生成新范式 StructLDM。该范式包括三个关键设计:结构化的高维人体表征、结构化的自动解码器以及结构化的隐空间扩散模型。

StructLDM 是一个从图像、视频中学习的前馈三维生成模型(Feedforward 3D Generative Model),相比于已有 3D GAN 方法可生成高质量、多样化且视角一致的三维数字人,并支持不同层级的可控生成与编辑功能,如局部服装编辑、三维虚拟试衣等部位感知的编辑任务,且不依赖于特定的服装类型或遮罩条件,具有较高的适用性。

ECCV 2024 | 南洋理工三维数字人生成新范式:结构扩散模型

论文标题:StructLDM: Structured Latent Diffusion for 3D Human Generation

论文地址:https://arxiv.org/pdf/2404.01241

项目主页:https://taohuumd.github.io/projects/StructLDM

实验室主页:https://www.ntu.edu.sg/s-lab

ECCV 2024 | 南洋理工三维数字人生成新范式:结构扩散模型

方法概览

ECCV 2024 | 南洋理工三维数字人生成新范式:结构扩散模型

StructLDM 训练过程的包含两个阶段:

结构化自动解码:给定人体姿态信息 SMPL 和相机参数,自动解码器对训练集中每个人物个体拟合出一个结构化 UV latent。该过程的难点在于如何把不同姿态、不同相机视角、不同着装的人物图像拟合到统一的 UV latent 中,为此 StructLDM 提出了结构化局部 NeRF 对身体每个部位分别建模,并通过全局风格混合器把身体各部分合并在一起,学习整体的人物外观。此外,为解决姿态估计误差问题,自动解码器训练过程中引入了对抗式学习。在这一阶段,自动解码器把训练集中每个人物个体转化为一系列 UV latent。

结构扩散模型:该扩散模型学习第一阶段得到的 UV latent 空间,以此学习人体三维先验。

在推理阶段,StructLDM 可随机生成三维数字人:随机采样噪声并去噪得到 UV latent,该 latent 可被自动解码器渲染为人体图像。

实验结果

该研究在 4 个数据集上进行了实验评估:单视角图像数据集 DeepFashion [Liu et al. 2016],视频数据集 UBCFashion [Zablotskaia et al. 2019],真实三维人体数据集 THUman 2.0 [Yu et al. 2021], 及虚拟三维人体数据集 RenderPeople。

3.1 定性结果比较

StructLDM 在 UBCFashion 数据集上与已有 3D GAN 方法做了对比,如 EVA3D、 AG3D 及 StyleSDF。相比于已有方法,StructLDM 可生成高质量、多样化、视角一致的三维数字人,如不同肤色、不同发型,以及服饰细节(如高跟鞋)。

ECCV 2024 | 南洋理工三维数字人生成新范式:结构扩散模型

StructLDM 在 RenderPeople 数据集上与已有 3D GAN 方法(如 EG3D, StyleSDF, 及 EVA3D)及扩散模型 PrimDiff 对比。相比于已有方法,StructLDM 可生成不同姿态、不同外观的高质量三维数字人,并生成高质量面部细节。

ECCV 2024 | 南洋理工三维数字人生成新范式:结构扩散模型

3.2 定量结果比较

研究者在 UBCFashion, RenderPeople,及 THUman 2.0 上与已知方法做了定量结果比较,在每个数据集上随机选取 5 万张图像计算 FID ,StructLDM 可大幅降低 FID。此外,User Study 显示大约 73% 的用户认为 StructLDM 生成的结果在面部细节和全身图像质量上比 AG3D 更有优势。

ECCV 2024 | 南洋理工三维数字人生成新范式:结构扩散模型

3.3 应用

3.3.1 可控性生成

StructLDM 支持可控性生成,如相机视角、姿态、体型控制,以及三维虚拟试衣,并可在二维隐空间插值。

ECCV 2024 | 南洋理工三维数字人生成新范式:结构扩散模型

3.3.2 组合式生成

StructLDM 支持组合式生成,如把①②③④⑤部分组合起来可生成新的数字人,并支持不同的编辑任务,如身份编辑、衣袖(4)、裙子(5)、三维虚拟试衣(6)以及全身风格化(7)。

ECCV 2024 | 南洋理工三维数字人生成新范式:结构扩散模型

3.3.3 编辑互联网图片

StructLDM 可对互联网图片进行编辑,首先通过 Inversion 技术得到对应的 UV latent,然后通过 UV latent 编辑可对生成的数字人进行编辑,如编辑鞋、上衣、裤子等。

ECCV 2024 | 南洋理工三维数字人生成新范式:结构扩散模型

3.4 消融实验

3.4.1 隐空间扩散

StructLDM 提出的隐空间扩散模型可用于不同编辑任务,如组合式生成。下图探究了扩散模型参数(如扩散步数和噪声尺度)对生成结果的影响。StructLDM 可通过控制扩散模型参数来提高生成效果。

ECCV 2024 | 南洋理工三维数字人生成新范式:结构扩散模型

3.4.2 一维与二维人体表征

研究者对比了一维与二维 latent 人体表征效果,发现二维 latent 可生成高频细节(如衣服纹理及面部表情),加入对抗式学习可同时提高图片质量和保真度。

ECCV 2024 | 南洋理工三维数字人生成新范式:结构扩散模型

3.4.3 结构感知的归一化

为提高扩散模型学习效率,StructLDM 提出了结构感知的 latent 归一化技术 (structure-aligned normalization),即对每个 latent 做逐像素归一化。研究发现,归一化后的 latent 分布更接近于高斯分布,以此更利于扩散模型的学习。

ECCV 2024 | 南洋理工三维数字人生成新范式:结构扩散模型

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-08-13 12:45:01

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

南洋理工大学开发3D编辑技术MVDrag3D ,只需拖拽就能实现精准P图
...视角图像提供了有效的先验。受此启发,DragGan 的作者、南洋理工大学助理教授潘新刚所在团队开发了一种新的多视角拖拽式 3D 编辑技术 MVDrag3D
2024-10-25 09:50:00
大模型集体失控!南洋理工新型攻击,主流AI无一幸免
...言要设计恶意软件入侵银行系统:这并非危言耸听,而是南洋理工大学等四所高校提出的一种大模型“越狱”新方法MasterKey
2023-11-08 09:09:00
“世界模拟器”的文化偏见与AIGC时代的文化竞争
...定权。图为好莱坞科幻巨制《电子世界争霸战》剧照。在三维动画领域,好莱坞依靠其经济和技术优势引领,决定着文化与审美表达的偏向。如改编自《山海经》故事的中国电影《捉妖记》中,妖兽
2024-04-10 10:41:00
首个VR端3D角色扮演AI发布!南洋理工公开SOLAMI技术报告,端到端VLA模型驱动,唱跳都能陪你玩
...,期待和这些角色在VR中有更进一步的交流。近日,来自南洋理工大学的研究团队在VR中实现了第一个3D版角色扮演AI系统SOLAMI,并公开其详细的技术报告。没错,这意味着和各种
2024-12-10 09:53:00
Meta提出“可持续思维链”,让大模型在连续潜空间中推理
...图,而且经常产生不自然的结果。 为了增强控制效果,南洋理工大学研究团队提出了 ObjCtrl-2.5D,这是一种无需训练的目标控制方法,它使用从带有深度信息的二维轨迹扩展而
2024-12-13 09:19:00
百倍提升7B模型推理能力!颜水成团队携手新加坡南洋理工大学发布Q*算法
...然出自中国团队之手—— 由颜水成教授团队携手新加坡南洋理工大学团队共同发布!根据实验结果,Q*成功帮助现有开源模型在GSM8K
2024-06-26 09:19:00
成立一年即获万华、金牌青睐!生境科技直面三维家、酷家乐挑战!
...浪”们如此的“神速”,是否让均已成立了10周年左右的三维家、酷家乐,感受到危机?又让万千家居公司、家装公司,嗅到了哪些可尝试的新机遇?本期家居新范式一起来探。B端先行,已拿下
2024-06-06 11:56:00
文生视频让自动驾驶看到新方向
...必须将其观察到的数据进行高效压缩。通过其展示视频的三维一致性与时序合理性,我们有理由相信,那庞大的神经网络已经理解了客观世界的一些物理规律,未来仍需深入研究。” 陈颖聪教授
2024-03-14 05:26:00
从空间智能到具身智能,跨维践行Sim2Real AI最高效路径
...2Real AI 正是通往具身智能的最高效路径。”从二维视觉到三维视觉、从空间智能到具身智能、从科研到产品再到商业落地,贾奎在这一领域已探索了二十余年。近期,在 WAIC 上
2024-07-23 09:40:00
更多关于科技的资讯: