[SIGGRAPH-23] 3D Gaussian Splatting for Real-Time Radiance Field Rendering

这篇具有很好参考价值的文章主要介绍了[SIGGRAPH-23] 3D Gaussian Splatting for Real-Time Radiance Field Rendering。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF

pdf | proj | code

  • 本文提出一种新的3D数据表达形式3D Gaussians。每个Gaussian由以下参数组成:中心点位置、协方差矩阵、可见性、颜色。通过世界坐标系到相机坐标系,再到图像坐标系的仿射关系,可将3D Gaussian映射到相机坐标系,通过对z轴积分,可得到对应Splatting 2D分布。
  • 针对3D Gaussians,提出对应的优化方法。去除可见性太低的高斯,对回传梯度较大的高斯,通过复制,克隆等操作,增强表达能力。
  • 针对3D Gaussians,提出对应的光栅化方法。将图像切分为16 x 16的块,每个块内对高斯根据深度进行排序。光栅时,从前向后遍历,当可见性累加到某个阈值即停止。梯度回传时从停止块开始,有后向前遍历。

目录

摘要

引言

近期工作

Traditional Scene Reconstruction and Rendering

Neural Rendering and Radiance Fields

Point-Based Rendering and Radiance Fields

Overview

Differentiable 3D Gaussian Splatting

Optimization with Adaptive Density Control of 3D Gaussians

Fast Differentiable Rasterizer for Gaussians

Implementation, Results and Evaluation

Implementation

Results and Evaluation

Real-World Scenes

Synthetic Bounded Scenes

Ablations

Initialization from SfM

Densification

Unlimited depth complexity of splats with gradients

Anisotropic Covariance 

Limitations


摘要

  • NeRF效果好,但是训练和渲染很花时间;特别是对1080p分辨率渲染的场景,现有方法无法实现实时渲染。
  • 本文引入三个关键部分,实现sota视觉质量、较短训练时间和1080p分辨率下新视角实时渲染。
    • 3D Gaussians。通过camera calibration中产生的稀疏点进行初始化。这种新的3D表达形式在保存NeRF优点的同时,避免了空白空间不必要的计算开销;
    • Optimization。实现3D Gaussian的交替优化和密度控制,优化各向异性协方差矩阵实现对场景的准确表达;
    • Rendering。实现快速可见感知渲染算法(fast visibility-aware rendering algorithm),支持各向异性飞溅(anisotropic splatting),同时加速训练和渲染。
  • 本文在多个数据集上,实现sota视觉质量和实时渲染。

引言

  • Mesh和点云是最常用的3D场景表达,这种显式表达非常适合快速GPU/CUDA-based rasterization。另一方面,NeRF可建立连续的场景表达,用volumetric ray-marching优化MLP,实现新视角生成。基于NeRF的高效算法,通常会引入一些新的表达形式,用插值的方式实现连续表达,例如:体素(voxel),hash grids,或点云。这些方法效果不错,但是渲染中要求的随机采样计算开销大、并且会导致噪声。本文提出的方法:3D Gaussian可以实现sota的视觉质量和具有竞争力的训练时间;tile-based splatting solution可以实现1080p的实时渲染。
  • 本文所提方法由三个主要部分组成。
    • 3D Gaussians:通过Structure-from-Motion (SfM) 相机标定得到的稀疏点云初始化,对于NeRF-synthetic dataset,本文方法在随机初始化情况下,也可取得较好的结果。3D Gaussian的优点在于(a)可导的体表示;(b)通过映射至2D,实现高效栅格化;(c)可以实施标准的alpha-blending;
    • 优化:提出一种优化3D Gaussians参数的方法,参数包括:3D position,opacity alpha,anisotropic covariance和球谐系数(spherical harmonic coefficients)。优化方法:交替执行密度控制步,在优化过程中增加或去除3D Gaussians。
    • 渲染:提出一种快速GPU排序算法,受tile-based rasterization方法启发。实现各向异性纹理飞溅(anisotropic splatting),一种可见性排序(visibility ordering)。受益于排序和alpha-blending,可以实现快速和准确的反向传播。

近期工作

Traditional Scene Reconstruction and Rendering

  • light fields (1996) -> Structure-from-Motion (SfM,2006) -> multi-view stereo (MVS,2007)
  • MVS-based方法会重投影(re-project)并融合(blend)输入图片到新相机视角,使用几何引导重投影。 

Neural Rendering and Radiance Fields

  • Soft3D (2017,首次提出Volumetric representations) -> 将深度学习技术应用到volumetric ray-marching(2019)-> NeRF (2020,提出importance sampling和postional encoding,但是较大MLP影响了速度) -> MipNeRF360(2022,sota视觉效果,但训练和渲染时间太长)
  • 为了加速训练或渲染,现有的探索集中在三个方向:稀疏数据结构存储特征,不同的编码器和MLP容量。其中,值得一提的方法是InstantNGP(2022),该方法使用hash grid和occupancy grid来加速计算,用一个较小的MLP表示密度和外观。Plenoxels(2022),使用稀疏体素网格,插值表示连续密度场,并且能够不使用MLP。
  • 尽管上述方法产生了很好的结果,这些方法仍然不能高效表示空白区域。

Point-Based Rendering and Radiance Fields

-blending和体渲染(volumetric rendering)本质上是相同的成像模型。对于体渲染方法:

3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF

其中是密度,是透光率,是颜色,是相邻采样点的间隙。密度越大,越接近1,该点越重要;之前点的密度和越大,越大,该点越不重要。上式可以被重新组织为:

3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF

alpha-blending可以表示为:

3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF

其中,所有点根据前后关系排序,是该点颜色,是该点所在2D高斯的概率密度乘以该点的不透明性(opacity)。

相较于之前的-blending栅格化方法,本文提出可见性(visibility)排序。另外,本文反向传播梯度到像素点中的所有splats,栅格化所有各向异性splats。

Overview

  • Initialization:给定静态场景的一组图片,和对应经过SfM校准的相机参数,以及SfM在校准过程中产生的稀疏点云;
  • 3D Gaussians:给定稀疏点云,初始化3D Gaussians,每个3D Gaussian由位置mean,协方差矩阵和不透明性决定;辐射场中指向性外观部分(颜色),通过spherical harmonics (SH) 表征;
  • Optimization:逐步优化3D Gaussians的参数:位置、协方差矩阵、和SH系数;
  • Rendering:tile-based rasterizer,支持根据可见性顺序的各向异性splats的-blending

3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF

Differentiable 3D Gaussian Splatting

在世界坐标系下,3D Gaussians由三个系数定义:均值,3D协方差矩阵和:

3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF

将世界坐标系下的3D Gaussians转换到相机坐标下:

3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF

其中,是世界坐标系坐标到相机坐标系坐标的转换矩阵,是透视变换的Jacobian矩阵。

参考:EWA Volume Splatting

  • View transformation:将世界坐标系下坐标转换到相机坐标系。假设是世界坐标系下坐标,是相机坐标系下坐标,则有仿射变换3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF,可得。
  • Projective Transformation(透视变换):将相机坐标系下坐标转换到图像空间,该转换不是仿射变换。假设是图像空间下坐标,则有。由于该变换不是放射变换,因此考虑:3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF,得到局部放射近似,其中。最终可得。

协方差矩阵具有物理含义,需要满足半正定条件。考虑协方差矩阵描述了一个标准球体向椭球体的变化过程,对标准球体先放缩,再旋转:

3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF

因此,缩放可以用三维向量描述,也即协方差矩阵的三个特征值。旋转其实是三个特征向量,它们两两正交且模为1,通过分析可由四维向量描述。

综上,一个3D Gaussian可由三个缩放系数、四个旋转系数、中心点位置和不透明率表示。除了上述提到的参数外,本文还用SH系数表示颜色。

Optimization with Adaptive Density Control of 3D Gaussians

  • 不透明率通过sigmoid激活函数映射至0到1之间。
  • 损失函数如下:3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF

Gaussian的优化过程中,本文考虑以下两种情况:

  • 异常:移除小于阈值的高斯。
  • 梯度异常:梯度超过阈值时,本文认为梯度异常,考虑存在under-reconstruction或over-reconstruction:
    • under-reconstruction:Gaussians太小了,不能覆盖必要几何。本文考虑复制相同大小的Gaussian,新Gaussian放至位置梯度所指方向;
    • over-reconstruction:对于方差太大的Gaussians,本文将其拆分为两个Gaussians,两个都缩放,新Gaussian的位置通过在旧Gaussian中采样决定。
  • 特殊情况:
    • 漂浮物(floaters)会导致Gaussian密度的异常增加。本文提出,每 iter,将所有设置为近似为0的值。在优化后,对于没有增大的Gaussian,则根据前述规则去除掉。
    • 对于具有非常大worldspace和相机坐标中具有较大footprint的Gaussian也会去除掉。

3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF

3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF

Fast Differentiable Rasterizer for Gaussians

提出一种tile-based rasterizer

  • 光栅化:
    • 将屏幕划分为16 x 16块,一次性预排序所有primitives,避免针对每个像素排序的开销
    • 仅保留有99%置信度的Gaussians
    • 用保护带(guard band)拒绝极端位置的高斯,例如:距离平面太近,或在视锥体之外太远的高斯;
    • 实例化高斯,并赋予每个高斯一个键值,包括视觉空间深度和块ID
    • 根据键值排序高斯。对于每个块,得到一个根据深度由近到深排序的列表
    • 在光栅化过程中,每个块使用一个线程去处理,每个线程首先将Gaussians加载到shared memory。对于给定像素点,从前往后遍历列表,根据加权求和颜色。当达到目标饱和值时,该进程停止,得到该像素点的颜色。
  • 梯度回传:从最后一个点,从后往前遍历列表,选择对应的Gaussian反传梯度。

Implementation, Results and Evaluation

Implementation

Pytorch + 用于光栅化的custom CUDA kernels

Results and Evaluation

Real-World Scenes

3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF

3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF

Synthetic Bounded Scenes

  • 30K迭代后,每个场景由200-500K Gaussians组成

3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF

3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF

Ablations

3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF

Initialization from SfM

3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF

Densification

3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF

Unlimited depth complexity of splats with gradients

3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF

Anisotropic Covariance 

3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF

Limitations

  • 对于缺乏训练数据的场景,存在失真,Mip-NeRF360也存在:

3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF

  • 存在拉长失真(elongated artifacts),比较脏的高斯(splotchy Gaussians),Mip-NeRF360也有

3d gaussian splatting for real-time radiance field rendering,3d,3D Gaussian,Splatting,NeRF文章来源地址https://www.toymoban.com/news/detail-766258.html

  • 相较于NeRF-based方法,内存开销大,需要20GB GPU memory

到了这里,关于[SIGGRAPH-23] 3D Gaussian Splatting for Real-Time Radiance Field Rendering的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 3D Gaussian Splatting for Real-Time Radiance Field Rendering(论文中代码复现)

    3D Gaussian Splatting for Real-Time Radiance Field Rendering https://repo-sam.inria.fr/fungraph/3d-gaussian-splatting/ 主要研究方法是使用3D高斯光点绘制(3D Gaussian Splatting)方法进行实时光辐射场渲染。该方法结合了3D高斯场表示和实时可微分渲染器,通过优化3D高斯场的属性和密度控制,实现了高质

    2024年02月03日
    浏览(49)
  • 3DGS 其一:3D Gaussian Splatting for Real-Time Radiance Field Rendering

    Reference: 深蓝学院:NeRF基础与常见算法解析 GitHub: gaussian-splatting 原文官网 A Survey on 3D Gaussian Splatting 开始弃用NeRF?为什么Gaussian Splatting在自动驾驶场景如此受欢迎? 相关文章: NeRF 其一:NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis NeRF 其二:Mip-NeRF NeRF 其三:In

    2024年01月18日
    浏览(75)
  • 3D Gaussian Splatting for Real-Time Radiance Field Rendering论文中代码复现及排错过程

    graphdeco-inria/gaussian-splatting: Original reference implementation of “3D Gaussian Splatting for Real-Time Radiance Field Rendering” (github.com) 以下是最初电脑所安装的内容: Anaconda3 2022.10-Windows-x86_64 CUDA 电脑只支持11.6,所以装的是11.6版本。 使用git去克隆repository 尽管挂了梯子,但是还是需要多次刷

    2024年02月05日
    浏览(57)
  • GPS-Gaussian:Generalizable Pixel-wise 3D Gaussian Splatting for Real-time Human Novel View Synthesis

    1)仿射变换 quad 所谓仿射变换,就是向量经过一次线性变换加一次平移变换,用公式可以表示为: quad 其中,p为变换前原始向量,q为变换后目标向量,A为线性变换矩阵,b为平移变换向量。 quad 对于二维图像而言,p和q分别是某个像素点在原图和仿射变换后的图中的未知(

    2024年02月03日
    浏览(45)
  • LiDAR SLAM 闭环——BoW3D: Bag of Words for Real-time Loop Closing in 3D LiDAR SLAM

    标题:BoW3D: Bag of Words for Real-Time Loop Closing in 3D LiDAR SLAM 作者:Yunge Cui,Xieyuanli Chen,Yinlong Zhang,Jiahua Dong,Qingxiao Wu,Feng Zhu 机构:中科院沈阳自动化研究所 来源:2022 RAL 现算法已经开源,代码链接: GitHub - YungeCui/BoW3D: [RA-L] BoW3D: Bag of Words for Real-Time Loop Closing in 3D LiDAR SLAM.      

    2024年02月12日
    浏览(51)
  • Why choose Flink for real-time processing

    Why choose Flink [1] Streaming data more truly reflects our lifestyle (real-time chat); [2] Traditional data architecture is based on limited data sets (Spark is based on micro-batch data processing); [3] Our goal: low latency, high throughput (distributed architecture, there may be confusion in the order, for example, within 1 hour of statistics, some data

    2024年03月20日
    浏览(48)
  • 【GAMES202】Real-Time Global Illumination(in 3D)—实时全局光照(3D空间)

    上篇我们介绍了PRT,并以Diffuse的BRDF作为例子分析了预计算的部分,包括Lighting和Light transport,如上图所示。 包括我们还提到了SH,可以用SH的有限阶近似拟合球面函数,然后计算。 这里和上篇的推导方式不太一样,我们上篇是把Lighting项用SH分解然后交换积分和求和符号,最

    2024年02月10日
    浏览(43)
  • Training-Time-Friendly Network for Real-Time Object Detection 论文学习

    目前的目标检测器很少能做到快速训练、快速推理,并同时保持准确率。直觉上,推理越快的检测器应该训练也很快,但大多数的实时检测器反而需要更长的训练时间。准确率高的检测器大致可分为两类:推理时间久的的训练时间久的。 推理时间久的检测器一般依赖于复杂的

    2024年02月15日
    浏览(45)
  • 实时 3D 深度多摄像头跟踪 Real-time 3D Deep Multi-Camera Tracking

    论文url https://arxiv.org/abs/2003.11753 提出了一个名为Deep Multi-Camera Tracking (DMCT)的实时3D多摄像机跟踪系统。该系统旨在解决使用多个RGB摄像机进行3D人群跟踪的挑战性任务。 多个RGB摄像机的实时视频帧,每个视频帧是一个彩色图像,具有高度和宽度的像素矩阵。 基础卷积层(Ba

    2024年04月09日
    浏览(75)
  • 【语音增强论文解读 03】TCNN: TEMPORAL CONVOLUTIONAL NEURAL NETWORK FOR REAL-TIME SPEECHENHANCEMENT IN THE TIME

    作者:Ashutosh Pandey and DeLiang Wang 文末附文章地址及其开源代码地址         尽管使用 T-F 表示是最流行的方法,但它也有一些缺点。首先,这些方法通常忽略干净的相位信息,并使用噪声相位进行时域信号重建。         受成功实现用于序列建模的 TCNN 以及基于编解码

    2024年02月02日
    浏览(46)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包