三维重建方法3D gaussian splatting与NeRF的区别和异同

这篇具有很好参考价值的文章主要介绍了三维重建方法3D gaussian splatting与NeRF的区别和异同。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

最近学习了一些三维重建相关的内容,目前比较主要的重建流派就是3DGS以及NeRF,NeRF作为2020年发布的文章轰动一时,影响深远,有很多NeRF based的相关工作在这些年涌现。3DGS作为2023年的new talk of the town,其在保证合成质量的情况下能够以数倍乃至数十倍的速度碾压许多NeRF based的方法,因此得到了广泛关注。这篇文章从几个角度比较了NeRF(最初的版本)和3D gaussian splatting的异同,道行尚浅,若有错误,欢迎大家讨论、批评、指正。

(原文中有一些词汇很难找到很恰当的中文翻译,为了不产生歧义在文中就直接使用了)

1.数据输入(INPUT)

NeRF:Nerf的输入是一张图像+该图像对应的相机位姿5D输入(xyz和θ与φ)

3DGS:3DGS的输入是由一张图像+经过SFM方法后生成的稀疏点云

比较:两者的差距在于一个是注重于相机的位姿(观测者的姿态)一个是注重于图像中各点的位置(2D图像转换为3D点云 观测内容的姿态

需要注意的是,Nerf的5D位姿会进行一个正弦编码才会输入到MLP网络中进行运算,这个编码过程让网络能够学习到更多的高频数据,从而提升了网络对于图像细节的重建能力,如果把这个过程看作input数据的初始化,那么与之对比,3DGS的输入在得到稀疏点云之后同样进行了初始化,将稀疏点云建模为了3D高斯,才进行后续的处理,因此两者在初始化阶段也有一些不同。

但是两者都可以由colmap等sfm方法从视频中恢复对应的位姿和位置,这一点是类似的,所以在3DGS中描述它的INPUT用了“NeRF-liked”

2.数据输出(output)

NeRF:NeRF的输出是经由神经网络之后直接输出对应camera ray上各个采样点的RGB值和体密度(volume density),随后经过体渲染(volume rendering)得到最终的重建图像。

3DGS:3DGS的输出,从下面这一张pipeline能够看出来,作者直接将最终重建得到的图像作为了整个方法的最终输出。

摄影测量、nerf、3d gaussian splatting对比,3d,计算机视觉,人工智能,深度学习,机器学习比较:两者的最终输出都是重建图像,但是获得重建图像的过程中存在差异,即两者的渲染方式不同。NeRF的渲染方式是体渲染,神经网络输出camera ray上不同采样点的RGB和体密度后,对该camera ray进行一个accumulate,最终得到2D图像。3DGS在会在过程中将建模好的3D高斯进行光栅化处理,将其投影到2D图像中,这个过程可以理解为向一个平地抛雪球,这个雪球被染上了不同的颜色,雪球落地之后会溅开,产生不同颜色的痕迹,多个雪球(3D高斯)丢到平地上之后,把不同的颜色痕迹按照深度等进行混合,就得到了最终的图像,这个渲染过程就叫做splatting,这里的渲染技术是a-blending,放一段GPT老师的解释:

摄影测量、nerf、3d gaussian splatting对比,3d,计算机视觉,人工智能,深度学习,机器学习

 3.三维信息表达(3D Information Expression)

NeRF:作为神经辐射场,其三维信息藏在MLP网络中,而神经网络具有不可解释性,类似于一个黑匣子,因此神经辐射场常常和隐式等词一起出现,就是因为其重建三维世界的信息是隐式表达。

3DGS:由SFM建立得到的稀疏三维点云,在建模成3D高斯后,3D高斯中明确的包含了三维世界的信息(位置,颜色,不透明)因为3D高斯的前身是三维点云,而三维点云是典型的显示表达数据,因此不难理解3DGS是一种显示表达。

比较:NeRF是隐式表达,三维信息藏在神经网络中,3DGS是显示表达,由3D高斯直接表达三维信息。

摄影测量、nerf、3d gaussian splatting对比,3d,计算机视觉,人工智能,深度学习,机器学习

4.优化方式

两者的优化方案在思路上都是相同的,都是将渲染出来的图像和真实图像进行对比,求loss,然后不断最小化这个loss来优化过程中的各个参数变量,都采用了经典的梯度下降优化策略。

5.时间与效果

两者的效果实际上相差不是很大,对于一些细节的重建见仁见智,3DGS在文中描述其在一些数据集的效果是优于NeRF的,但是从其github页面来看,实际上效果差别不是很大。但是时间上3DGS有明显的优势,可以从其提供的图中看出来。NeRF对于简单的单一场景(isolated object)的训练时间就需要12个小时,而3D高斯只需要几分钟,在保证时间的过程中不损失质量,实际上就是3DGS一直追寻的目的,在文章能看出:

摄影测量、nerf、3d gaussian splatting对比,3d,计算机视觉,人工智能,深度学习,机器学习

 附上官方给出的时间对比图:

摄影测量、nerf、3d gaussian splatting对比,3d,计算机视觉,人工智能,深度学习,机器学习

以及效果对比:

摄影测量、nerf、3d gaussian splatting对比,3d,计算机视觉,人工智能,深度学习,机器学习

最后通过一个表格简单总结一下两者的差异:

NeRF 3D Gaussian splatting
Input Camera pose(5D) Image point clouds from SFM
Output Image Image
Rendering Volume rendering               α-blending

Optimization文章来源地址https://www.toymoban.com/news/detail-790109.html

gradient descend Gradient descend
3D Information Expression Implicit         Explicit
Time&Effect 12hour for isolated object 6min for isolated object

到了这里,关于三维重建方法3D gaussian splatting与NeRF的区别和异同的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 经典文献阅读之--Gaussian Splatting SLAM(单目3D高斯溅射重建)

    3D GS在NeRF领域已经掀起了一股浪潮,然后又很快席卷到了SLAM领域,最近已经看到很多3D GS和SLAM结合的开源工作了。将为大家分享帝国理工学院戴森机器人实验最新开源的方案《Gaussian Splatting SLAM》,这也是第一个将3D GS应用到增量3D重建的工作,速度为3 FPS。要想实时从摄像头

    2024年03月10日
    浏览(56)
  • 【3D生成与重建】SSDNeRF:单阶段Diffusion NeRF的三维生成和重建

    题目 :Single-Stage Diffusion NeRF: A Unified Approach to 3D Generation and Reconstruction 论文 :https://arxiv.org/pdf/2304.06714.pdf 任务 :无条件3D生成(如从噪音中,生成不同的车等)、单视图3D生成 机构 :Hansheng Chen,1,* Jiatao Gu,2 Anpei Chen, 同济、苹果、加利福尼亚大学 代码 :https://github.com/Lakon

    2024年02月02日
    浏览(48)
  • 【三维重建】DreamGaussian:高斯splatting的单视图3D内容生成(原理+代码)

    项目主页:https://dreamgaussian.github.io/ (包含论文和代码) 提示:以下是本篇文章正文内容,下面案例可供参考 常用的3D内容创建方式,主要是 利用基于优化的通过分数蒸馏采样(SDS)进行的3D生成 。该方法每个样本优化较慢,很难实际应用。本文提出了DreamGaussian,兼顾效率

    2024年02月06日
    浏览(52)
  • 神经辐射场(NERF)模型:一个令人惊叹的三维场景重建方法

      在计算机图形学、计算机视觉和增强现实等领域,三维场景重建一直是一个热门话题。近年来,神经网络模型的出现已经彻底改变了这个领域,而其中最引人注目的就是 NERF(神经辐射场)模型。在这篇文章中,我们将深入探讨这个令人惊叹的三维场景重建方法。     简单

    2024年02月07日
    浏览(43)
  • 数字人解决方案——RAD-NeRF真人视频的三维重建数字人源码与训练方法

    1.真人视频三维重建数字人源码是基于NeRF改进的RAD-NeRF, NeRF(Neural Radiance Fields) 是最早在2020年ECCV会议上的Best Paper,其将隐式表达推上了一个新的高度,仅用 2D 的 posed images 作为监督,即可表示复杂的三维场景。 NeRF其输入稀疏的多角度带pose的图像训练得到一个神经辐射场

    2024年02月06日
    浏览(47)
  • 【3D-GS】Gaussian Splatting SLAM——基于3D Gaussian Splatting的全网最详细的解析

    3D Gaussian Splatting for Real-Time Radiance Field Rendering 论文:link code:link video:link 1. 开山之作 Nerf 一切的开始都是起源于 NERF 开山之作 这里由详细的学习与拆解 【NERF】入门学习整理(一) 【NERF】入门学习整理(二) 【NERF】入门学习整理(三) 【NeRF数据集】LLFF格式数据集处理co

    2024年04月15日
    浏览(85)
  • 3D Gaussian Splatting

    本文转载于大佬~~ 这是3D Gaussian Splatting综述, 先回顾3D Gaussian的原理和应用,借着全面比较了3D GS在静态场景、动态场景和驾驶场景中的性能,最后为未来指明了研究方向! 三维 Gaussian splatting(3DGS)是近年来在显式辐射场和计算机图形学领域出现的一种变革性技术。这种创新

    2024年04月08日
    浏览(59)
  • 【辐射场】3D Gaussian Splatting

      , 3D Gaussian Splatting,下文简称3DGS,是好一段时间以来在三维内容创作和三维重建领域比较有热度的一项技术。 它属于 基于图像的三维重建方法 ,意思就是你对现实物体或者场景拍照片,就能给你训练成一个场景模型,能够被渲染出来给你看。 它产生的模型可以作为三维

    2024年02月03日
    浏览(45)
  • 3D Gaussian Splatting 渲染过程

    给定一组三维高斯点,渲染步骤大致为:1.camera space转成ray space 2.对像平面进行分块,然后对高斯排序 3.正投影发出射线进行α-blending 这个步骤将NeRF中的投影过程变为了正投影,引入了ray space的概念,让3D Gaussian 变为2D Gaussian. 透视投影和正投影                    一般的渲

    2024年01月20日
    浏览(68)
  • 3D Gaussian Splatting的使用

    今年SIGGRAPH最佳论文,学习了一下,果然厉害,具体论文原理就不说了,一搜都有,主要是看看怎么用,自己能不能把身边的场景快速建个模。 赶紧记录下,好像这几天在这个基础上又有很多花样出来了… 我的系统是Ubuntu22.04。 开源作者已经都弄的很详细了,也有教程。 首

    2024年02月04日
    浏览(48)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包