• 我的订阅
  • 科技

分分钟将图像转换成3D模型

类别:科技 发布时间:2023-12-11 15:23:00 来源:51CTO

译者 | 布加迪

分分钟将图像转换成3D模型

法国LIGM实验室的研究人员已开发了一种新颖的技术,可以由真实场景周围捕获的图像集合快速创建高度逼真的3D网格模型。他们的方法被称为SuGaR,通过以一种独特的方式采用神经表示和计算几何技术,可以在短短几分钟内重新构建详细的三角形网格模型。这项功能可以为创作者、教育工作者和专业人员提供一种更易于访问的途径,以便在许多应用环境充分利用3D模型。

本文将介绍这种方法的独特之处以及它对其他AI项目意味着什么。

重建真实环境的准确3D模型长期以来一直是一项艰巨的任务,需要专门的设备、精心编排的捕获流程和大量的手动后期处理。激光扫描设备和结构光深相机可以直接捕获几何扫描,但仍存在缓慢、昂贵和笨重的缺点。

基于运动结构的摄影测量方法由相机图像生成稀疏的3D点云,但光由这些点云生成干净、详细的表面模型就非常困难了。虽然质量很出众,但最先进的神经辐射场即使在现代GPU上也需要持续数小时乃至数天的渲染密集型优化周期,才能将其体积场景表示转换成实用的表面网格。

因此,虽然模拟、教育、数字化和创意媒体等领域的许多下游用例都必然会从易于访问的高质量3D场景表示中受益匪浅,但对大多数人来说,捕获和开发方面仍面临极大的障碍。

本文介绍了SuGaR方法。SuGaR方法将新兴的神经场景表示与传统的计算几何算法相结合,克服了这些挑战,并提供了一种独特的快速且易于访问的3D建模途径。

该技术立足于最近一种基于神经粒子的场景表示方法:3D高斯泼溅。通过优化上百万个微小的3D高斯基元的方向、尺寸、放射及其他属性,最准确地再现一组输入相机图像,高斯泼溅可以在短短几分钟内重建生动的场景神经渲染。

经过优化后,独立的高斯粒子仍然是非结构化的。SuGaR的关键创新在于引入了一种新的训练过程,该过程鼓励颗粒在保留细部的同时符合表面。这种对齐便于将粒子当成结构化的点云进行重建。

利用这种点结构,SuGaR随后执行一种名为泊松表面重建的计算技术,直接由对齐的粒子高效地生成网格。同时处理数百万个粒子会得到一个详细的三角模型,而这是传统技术难以实现的。

从本质上讲,SuGaR将大量的计算负载转移到一个快速的、可扩展的前端点云结构中。这将所需的渲染密集型工作负载由最终网格生成转移到别处,从而使快速构建模型成为可能。

研究人员通过实验证明了SuGaR在广泛的公共数据集上快速构建高质量模型的效果,这些数据集涉及室内场景、室外景观、详细结构、镜面、照明变化及其他建模挑战。

分分钟将图像转换成3D模型

图1. 使用SuGaR的渲染(a)和重新构建的网格(b)的两个示例。常规地图(c)有助于直观地显示几何形状

示例包括由Mip-NeRF360数据集重建复杂室内环境的建筑模型的详细网格,以及由Tank & Temples数据集生成车辆和建筑物等结构的生动网格。

与现有的最先进的神经和混合重建技术进行定量和定性比较表明,SuGaR提供了显著加快的网格创建速度,渲染质量和几何精度可以媲美所需计算资源多得多的方法。论文作者表示:“我们的方法在由3D高斯泼溅检索3D网格方面要快得多,而3D高斯泼溅本身就比NeRF快得多。正如我们的实验表明的那样,我们通过将高斯函数绑定到网格上所进行的渲染获得了比以前基于网格的解决方案更高的质量。”

论文作者还强调了其方法的速度:“使用我们的方法,检索这样一个可编辑的网格进行逼真的渲染只需几分钟,同时提供了更好的渲染质量,而使用SDF方面最先进的方法也需要数小时。”

SuGaR技术显著改善了3D模型重建。像激光扫描这样的传统方法既昂贵又复杂,虽然神经辐射场具有高质量,但速度慢且耗费大量资源。SuGaR通过将神经场景表示与计算几何相结合改变了这种情况。它先使用一种名为3D高斯泼溅的方法来创建神经渲染,然后它对齐这些粒子,让其行为如同结构化的点云。这是下一步的关键:使用泊松表面重建将这些粒子转换成详细的网格。这个过程更快,因为它将繁重的计算移到了最开始。

SuGaR已经在各种数据集上进行了测试,可处理室内和室外场景等不同的挑战。它不仅比NeRF更快,还保持了高质量和准确性。这使得创建详细的3D模型更快速、更易于访问,这对于模拟、教育和媒体等领域的应用而言很了不起。

原文标题:Turning images into 3D models in minutes, not hours,作者:Mike Young

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2023-12-11 19:45:06

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

高斯混合模型在概率建模中的应用
...模方法逐渐成为实现复杂问题的关键手段之一。高斯混合模型(GaussianMixtureModel,简称GMM)作为一种经典的概率建模技术
2023-10-23 03:37:00
南洋理工大学开发3D编辑技术MVDrag3D ,只需拖拽就能实现精准P图
...繁琐而难以实现。近年来,一部分学者利用基于 3D 高斯模型的方法提高了 3D 编辑的灵活性,但仍面临着优化时间长或过度饱和的问题,并且在实现大规模结构变化方面存在不足。相比之
2024-10-25 09:50:00
Meta提出“可持续思维链”,让大模型在连续潜空间中推理
今日值得关注的大模型前沿论文北大团队提出「自定义漫画生成」框架UniReal:通过学习真实世界动态实现通用图像生成和编辑苹果团队提出「可扩展视频生成」方法利用扩散 Transformer 进行视频运动迁移ObjCtrl-2
2024-12-13 09:19:00
苏州创企,想要掀起一场三维重建的AI革命
...绍 3D 高斯溅射技术,这项技术使得大规模生成精细化 3D 模型成为可能。论文一经发出,便在计算机视觉领域引起极高关注。「这项技术具有划时代意义」,知天下创始人兼 CEO 宋
2024-04-28 11:00:00
单图解锁全景视角!北大/港中文/腾讯等推出ViewCrafter | 已开源
...甚至单张输入图像中生成任意规模场景的新视角。这需要模型对3D物理世界有全面的理解。接下来一起康康具体咋实现的。概括而言,ViewCrafter是基于点云先验的可控视角视频生成
2024-09-19 13:37:00
...布,从而使得高斯分布在许多实际问题中成为一种常用的模型。高斯分布的发展始于18世纪末和19世纪初,主要得益于数学家高斯的开创性研究。他在1809年发表的论文《误差理论的方法》
2024-02-06 02:01:00
CVPR最佳论文被生成式AI占领,清华武大华南农大上科校友获奖
...赢家!一篇是Rich Human Feedback for Text-to-Image Generation,受大模型中的RLHF技术启发
2024-06-21 09:21:00
Galaxy S24系列上线大模型!三星:不排除未来Galaxy AI收费的可能性
...厂商如华为、小米、vivo和荣耀均在旗舰手机上搭载了AI大模型功能。业内人士认为,目前需要先让用户感知到AI大模型带来的便利性,才会让消费者产生换机的欲望,并且目前手机端的A
2024-01-18 11:00:00
MSRA:视觉生成六大技术问题
...进行了梳理,他认为视觉信号拆分是最本质的问题。生成模型的目标是拟合目标数据分布,然而,目标数据分布过于复杂,难以直接拟合。因此,往往需要将复杂的信号做拆分,拆分成多个简单的分
2024-07-15 09:34:00
更多关于科技的资讯: