• 我的订阅
  • 科技

腾讯3D大模型全面开源,文本图像10秒转3D资产

类别:科技 发布时间:2024-11-06 09:43:00 来源:量子位

3D生成开源界首个同时支持文字、图像转3D的模型来了,效果还是SOTA级别。

就在刚刚,腾讯宣布推出Hunyuan3D-1.0,一口气开源轻量版和标准版两个模型。

最快10秒就能端到端生成。

先生成6个多视角图像,再进行多视角重建,“啪”的一下360度无死角的3D资产就造出来了。

腾讯3D大模型全面开源,文本图像10秒转3D资产

无论是人物形象:

腾讯3D大模型全面开源,文本图像10秒转3D资产

还是像下面这样婶儿的葡萄等复杂结构生成,细节都蛮不错:

腾讯3D大模型全面开源,文本图像10秒转3D资产

薄薄的枫叶也能完整生成:

腾讯3D大模型全面开源,文本图像10秒转3D资产

镂空雕刻花纹生成效果Belike:

腾讯3D大模型全面开源,文本图像10秒转3D资产

实验中,Hunyuan3D-1.0定性定量评估均超越此前SOTA开源模型,推理性能提升很大,轻量版A100 GPU上生成时间约10秒,标准版约25秒。

目前Hunyuan3D-1.0模型权重、推理代码、模型算法等,已全部开源。

量子位童鞋在发布现场,还拿到了3D生成后直接拿来3D打印的小手办~

腾讯3D大模型全面开源,文本图像10秒转3D资产

多视图生成、重建两步炼成

技术实现上,腾讯混元团队发布了一份技术报告。

腾讯3D大模型全面开源,文本图像10秒转3D资产

Hunyuan3D-1.0模型架构如下,采用多视图生成、多视图重建两阶段生成方法。

腾讯3D大模型全面开源,文本图像10秒转3D资产

对于输入图像,首先使用多视角扩散模型在固定相机视角下合成6个新视角图像,从不同的视角捕捉了3D资产丰富的纹理和几何先验,将3D生成任务从单视角重建转化为难度更低的多视角重建任务。

腾讯3D大模型全面开源,文本图像10秒转3D资产

然后将生成的多视角图像输入基于Transformer的稀疏视角大规模重建模型。

利用上一阶段生成的多视角图像,重建模型学习处理多视角扩散引入的噪声和不一致性,并利用条件图像中的可用信息高效恢复3D结构。

腾讯3D大模型全面开源,文本图像10秒转3D资产

最终,该模型可以实现输入任意单视角生成3D资产。

腾讯3D大模型全面开源,文本图像10秒转3D资产

具体来说,第一阶段多视图生成采用了自适应CFG(classifer-free guidance),为不同视角和time steps设置不同的CFG尺度值。

在输入视角的临近视角CFG大,保证生成控制更强,与输入图更接近;较远视角CFG小,生成diversity更大,保证生成图像的真实性。

腾讯3D大模型全面开源,文本图像10秒转3D资产

另外,为了保证角度鲁棒性、兼容任意输入视角,渲染训练数据时候,渲染不同俯仰角作为输入,输出0°俯仰角的多视图。

输入任意视角图像,生成环绕一圈的俯仰角elevation=0的6张图,最大化多视图间的可见区域,并通过attention保持多视角一致,为下一步的多视图重建模型提供高一致性、高真实性的多视图图像。

在第二阶段多视图重建方面,Hunyuan3D-1.0结合了已校准(生成的多视角图像)和未校准(用户输入)的混合输入,通过专门的视角无关分支整合条件图像信息,由此以提升生成图像中的不可见部分精度。

图像信息通过cross-attention注入triplane token中。

Hunyuan3D-1.0还通过线性层将特征平面的分辨率从64上采样到256,使得特征表征更加细腻,生成物体细节更丰富。

腾讯3D大模型全面开源,文本图像10秒转3D资产

值得一提的是,Hunyuan3D-1.0还采用了Signed distance function(SDF)的隐式表示,最后通过Marching cube算法在三维空间进行采样查询得到signed distance来输出3D mesh,可以直接与3D管线结合。

拿下开源新SOTA

实验结果显示,Hunyuan3D-1.0具有强大泛化能力和可控性,可重建各类尺度物体,大到建筑,小到工具花草。

在两个公开3D数据集GSO、OmniObject3D上定量评估3D生成质量,包括Chamfer Distance(CD)、F-score (FS)指标,Hunyuan3D-1.0表现总体最优。

腾讯3D大模型全面开源,文本图像10秒转3D资产

定性评估方面,Hunyuan3D-1.0在几何细节、纹理细节、纹理-几何一致性、3D合理性、指令遵循等评价维度上,全面超越SOTA开源模型。

腾讯3D大模型全面开源,文本图像10秒转3D资产

用户喜好打分结果如下:

腾讯3D大模型全面开源,文本图像10秒转3D资产

Hunyuan3D-1.0在保证高质量、多样化生成之外,推理性能也大幅提升,显著减少了3D资产生产的耗时。

腾讯3D大模型全面开源,文本图像10秒转3D资产

“3D生成技术今年已进入快速发展阶段”

推出Hunyuan3D-1.0的同时,腾讯混元3D大模型也正在落地应用中——

据了解,腾讯地图目前就已基于腾讯混元3D大模型,发布了自定义3D导航车标功能,支持用户创作个性化的3D导航车标。

腾讯元宝APP也上线了“3D角色梦工厂”,支持个性化的UGC 3D人物生成。

腾讯3D大模型全面开源,文本图像10秒转3D资产

今年3D赛道实属火炎焱。

国内有VAST、AVAR AI等,初创公司多来自全球知名高校和科研机构;国外有AI教母李飞飞首次创业成立的空间智能公司World Labs,也着眼于3D生成世界,宣布长期目标是构建大世界模型(LWM)来感知、生成3D世界并与之交互。

鹅厂这波开源操作,无疑是把大伙儿玩3D模型的门槛又打下来了。

正如腾讯混元3D负责人郭春超所说:

3D生成技术今年已进入快速发展阶段,3D AIGC作为新的生产力工具,能为复杂的传统3D制作流程提效,可应用于游戏、工业制造、社交娱乐等领域,未来可能会与机器人等领域结合,赋能空间智能。

官网地址:https://3d.hunyuan.tencent.com/

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-11-06 12:45:03

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

刚刚,重磅发布!阿里、腾讯、科大讯飞在列
...办公室发布境内深度合成服务算法备案清单,包括阿里、腾讯、百度、科大讯飞等巨头的41个算法入围,这也是国内首批公开的算法备案清单。值得注意的是,此次名单中大模型算法并不多,除了
2023-06-20 17:00:00
腾讯开源最大MoE大语言模型!3D大模型同时支持文/图生成,晒混元模型及应用全家桶
智东西11月5日报道,今日,腾讯宣布开源MoE大语言模型混元Large、腾讯混元3D生成模型Hunyuan3D-1.0正式开源
2024-11-06 09:41:00
腾讯联手多所大学推出StyleCrafter 可用于视频模型
【CNMO新闻】近日,根据品玩报道,腾讯AI实验室近日联手清华大学和香港中文大学,共同推出一种名为StyleCrafter的通用方法
2023-12-06 15:24:00
腾讯混元文生图大模型升级并对外开源
5月14日消息,腾讯宣布旗下的混元文生图大模型升级并对外开源,目前已经在HuggingFace及Github上发布,包含模型权重、推理代码、模型算法等完整模型,可供企业与个人开发
2024-05-15 14:23:00
国内首批!腾讯云AI绘画通过中国信通院AIGC平台评估
...通院开展的“AIGC绘画平台基础能力评估”结果重磅发布,腾讯云AI绘画成为国内首批通过该评估标准的AIGC绘画平台。伴随着生成式人工智能技术在文本、图像、音视频等内容生成上的
2023-12-29 04:02:00
单图解锁全景视角!北大/港中文/腾讯等推出ViewCrafter | 已开源
...衔接也非常丝滑。以上来自ViewCrafter,由北大、港中文、腾讯等机构的研究人员提出,可以从单张或稀疏输入图像生成精确相机可控的新视角视频。还支持场景级文生3D、图生3D
2024-09-19 13:37:00
OpenAI官方宣布ChatGPT将推出新的语音和图像功能
...没有那么火了,之前参与的希壤,瑶台,元璟,百度阿里腾讯这些好像也没有什么实质性产品落地,什么原因?我们觉得还是门槛太高,很难马上赚钱。但是AIGC技术不一样,好像这个技术有些
2023-09-26 17:35:00
AIGC落地应用:腾讯云如何助力产业智能化升级?
...何加快前沿技术落地,进而推动产业升级? 6月15日,由腾讯云TVP与CSDN联合主办的「AIGC落地的正确姿势——TechoTVP技术沙龙」活动在上海举办
2024-06-26 12:45:00
文生视频让自动驾驶看到新方向
...工智能在AI技术应用中成为焦点,尤其是文本生成视频大模型Sora,近来更是在全球范围内激发了科技创新的热潮。香港科技大学(广州)人工智能学领域助理教授兼博士生导师陈颖聪教授,
2024-03-14 05:26:00
更多关于科技的资讯: