神经辐射场(Neural Radiance Field,NeRF)的简单介绍

这篇具有很好参考价值的文章主要介绍了神经辐射场(Neural Radiance Field,NeRF)的简单介绍。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

参考文章:https://arxiv.org/abs/2210.00379

1. 概述

  神经场是一种神经网络,其输入为坐标,输出为坐标对应点的某个属性。
  神经辐射场(NeRF)模型是一种新视图合成方法,它使用体积网格渲染,通过MLP进行隐式神经场景表达,以学习3D场景的几何和照明。
  应用:照片编辑、3D表明提取、人体建模、3D表达和视图合成等。
  特点:模型自监督。对于一个场景,只需要多视图图像及其姿态,而无需3D或深度监督。

2. NeRF模型

  NeRF模型将3D场景表达为用神经网络表示的辐射场。辐射场描述了各点在各视角下的颜色密度。即 F ( x , θ , ϕ ) → ( c , σ ) F(x,\theta,\phi)\rightarrow(c,\sigma) F(x,θ,ϕ)(c,σ)其中 x x x为点的3D坐标, ( θ , ϕ ) (\theta,\phi) (θ,ϕ)为视线的水平角与俯仰角, c c c表示颜色, σ \sigma σ表示体积网格密度。该函数使用MLP(记为 F Θ F_\Theta FΘ)进行近似。 ( θ , ϕ ) (\theta,\phi) (θ,ϕ)也可表达为3维的单位方向向量 d d d
  该表达需要满足多视图一致性,即 σ \sigma σ(场景的内容)与视角无关,而 c c c与坐标和视角均相关。通常来说,会设计两个MLP,第一个MLP输入 x x x,输出 σ \sigma σ与高维特征向量 h h h σ , h = σ-MLP ( x ) \sigma,h=\text{σ-MLP}(x) σ,h=σ-MLP(x)高维特征向量 h h h与视线方向 d d d拼接后输入第二个MLP得到 c c c c = c-MLP ( [ h ; d ] ) c=\text{c-MLP}([h;d]) c=c-MLP([h;d])由于密度和颜色都完全被MLP表达,因此这种方法被称为隐式场景表达

3. 新视图合成

神经辐射场(Neural Radiance Field,NeRF)的简单介绍,NeRF与3D目标检测,计算机视觉,深度学习

  1. 对于待合成图像的每个像素,使用相机射线穿过场景并生成采样点(上图(a))。
  2. 对每个采样点,使用射线方向和采样位置,输入NeRF MLP计算局部颜色与密度(上图(a)与(b)之间的连接处)。
  3. 使用体积网格渲染,从采样点的色彩和密度生成图像。

4. 体积网格渲染

  设相机射线为 r ( t ) = o + t d r(t)=o+td r(t)=o+td,其中 o o o为相机位置, d d d为射线方向。则可按下式得到色彩 C ( r ) C(r) C(r) C ( r ) = ∫ t 1 t 2 T ( t ) ⋅ σ ( r ( t ) ) ⋅ c ( r ( t ) , d ) ⋅ d t C(r)=\int_{t_1}^{t_2}T(t)\cdot\sigma(r(t))\cdot c(r(t),d)\cdot dt C(r)=t1t2T(t)σ(r(t))c(r(t),d)dt其中 σ ( r ( t ) ) \sigma(r(t)) σ(r(t)) c ( r ( t ) , d ) c(r(t),d) c(r(t),d)为射线 r ( t ) r(t) r(t)处的体积网格密度和颜色。
   T ( t ) T(t) T(t)为累积透明度,表示射线从 t 1 t_1 t1 t t t不被拦截的概率: T ( t ) = exp ⁡ ( − ∫ t 1 t σ ( r ( u ) ) ⋅ d u ) T(t)=\exp\left(-\int_{t_1}^t\sigma(r(u))\cdot du\right) T(t)=exp(t1tσ(r(u))du)  通过追踪待合成图像的像素对应的相机射线,可计算积分。但是通常会通过分层抽样法来计算其近似值。具体来说,射线会被分为等长的 N N N段,然后在各段内均匀抽样一个点,并用求和近似上面的积分: C ^ ( r ) = ∑ i = 1 N α i T i c i , 其中 T i = exp ⁡ ( − ∑ j = 1 i − 1 σ j δ j ) \hat{C}(r)=\sum_{i=1}^N\alpha_iT_ic_i,其中T_i=\exp\left(-\sum_{j=1}^{i-1}\sigma_j\delta_j\right) C^(r)=i=1NαiTici,其中Ti=exp(j=1i1σjδj)其中 δ i \delta_i δi为采样点 i i i i + 1 i+1 i+1的距离; ( σ i , c i ) (\sigma_i,c_i) (σi,ci)为射线上采样点 i i i的密度和颜色(使用NeRF MLP计算)。 α i \alpha_i αi为采样点 i i i处alpha合成的透明度/不透明度: α i = 1 − exp ⁡ ( − σ i δ i ) \alpha_i=1-\exp(-\sigma_i\delta_i) αi=1exp(σiδi)

5. 期望深度计算

  期望的深度可使用积累透明度沿射线计算: d ( r ) = ∫ t 1 t 2 T ( t ) ⋅ σ ( r ( t ) ) ⋅ t ⋅ d t d(r)=\int_{t_1}^{t_2}T(t)\cdot\sigma(r(t))\cdot t\cdot dt d(r)=t1t2T(t)σ(r(t))tdt上式同样可使用求和近似: D ^ ( r ) = ∑ i = 1 N α i t i T i \hat{D}(r)=\sum_{i=1}^N\alpha_it_iT_i D^(r)=i=1NαitiTi某些深度正则化方法会使用期望深度将密度限制为类似(在场景表面取峰值的)delta函数的形式,或是保证深度的平滑性。

6. 损失函数

  对每个像素,考虑其平方误差光度损失,以优化MLP参数。总损失为: L = ∑ r ∈ R ∥ C ^ ( r ) − C g t ( r ) ∥ 2 2 L=\sum_{r\in R}\|\hat{C}(r)-C_{gt}(r)\|_2^2 L=rRC^(r)Cgt(r)22其中 C g t ( r ) C_{gt}(r) Cgt(r)是与射线 r r r关联像素的真实颜色, R R R是待合成图像的相机射线集合。

7. 位置编码

  NeRF模型通常会使用位置编码,因其有利于渲染图像的细节重建。原始的位置编码 γ \gamma γ是在点 x x x的坐标(归一化到 [ − 1 , 1 ] [-1,1] [1,1])以及射线单位方向向量 d d d的每个分量 v v v上进行的: γ ( v ) = ( sin ⁡ ( 2 0 π v ) , cos ⁡ ( 2 0 π v ) , sin ⁡ ( 2 1 π v ) , cos ⁡ ( 2 1 π v ) , ⋯   , sin ⁡ ( 2 N − 1 π v ) , cos ⁡ ( 2 N − 1 π v ) ) \gamma(v)=(\sin(2^0\pi v),\cos(2^0\pi v),\sin(2^1\pi v),\cos(2^1\pi v),\cdots,\sin(2^{N-1}\pi v),\cos(2^{N-1}\pi v)) γ(v)=(sin(20πv),cos(20πv),sin(21πv),cos(21πv),,sin(2N1πv),cos(2N1πv))其中 N N N为用户定义的维度参数。文章来源地址https://www.toymoban.com/news/detail-724273.html

到了这里,关于神经辐射场(Neural Radiance Field,NeRF)的简单介绍的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • SFM(Structure from Motion)和NeRF(Neural Radiance Fields)

    SFM(Structure from Motion)和NeRF(Neural Radiance Fields)都是计算机视觉领域中的重要算法,用于不同的任务和应用。 SFM(Structure from Motion): SFM是一种从图像序列中重建三维场景的技术。它通过分析相机在不同视角下捕获的图像来推断场景的三维结构和摄像机的运动。SFM算法可以

    2024年02月13日
    浏览(26)
  • NeRF-SLAM: Real-Time Dense Monocular SLAM with Neural Radiance Fields 论文阅读

    题目 :NeRF-SLAM: Real-Time Dense Monocular SLAM with Neural Radiance Fields 作者 :Antoni Rosinol, John J. Leonard, Luca Carlone 代码 :https://github.com/ToniRV/NeRF-SLAM 来源 :arxiv 时间 :2022 我们提出了一种新颖的几何和光度 3D 映射流程,用于从单目图像进行准确、实时的场景重建。 为了实现这一目标

    2024年02月14日
    浏览(39)
  • 辐射神经场算法——NeRF算法详解

    NeRF(Neural Radiance Fields)是2020年ECCV会议上的Best Paper,一石激起千层浪,在此之后的两三年的各大顶会上相关文章层出不穷,其影响力可见一斑,NeRF通过隐式表达的方式将新视角合成任务(Novel View Synthesis Task)推向了一个新的高度。那么,什么是“新视角合成任务”呢?什么

    2024年02月06日
    浏览(30)
  • PC-NeRF: Parent-Child Neural Radiance Fields Using Sparse LiDAR Frames in Autonomous

    第二个工作,大家有时间可以去github点个小星星啦,and 希望大家不要喷啦,感谢感谢 Large-scale 3D scene reconstruction and novel view synthesis are vital for autonomous vehicles, especially utilizing temporally sparse LiDAR frames. However, conventional explicit representations remain a significant bottleneck towards representin

    2024年04月11日
    浏览(21)
  • Nerf神经辐射场三维重建0基础学习

    前言 本期内容为对Nerf神经辐射场的网络结构以及其使用的体渲染技术的一个介绍。文章会同步更新到公众号 AI知识物语 ,并且后续有需要也会更新响应的讲解视频到B站,同名 出门吃三碗饭 开讲! 简单介绍Nerf Nerf是2020年的一篇ECCV论文,其贡献就是通过提供2维信息来渲染

    2024年02月09日
    浏览(25)
  • 神经辐射场(NERF)模型:一个令人惊叹的三维场景重建方法

      在计算机图形学、计算机视觉和增强现实等领域,三维场景重建一直是一个热门话题。近年来,神经网络模型的出现已经彻底改变了这个领域,而其中最引人注目的就是 NERF(神经辐射场)模型。在这篇文章中,我们将深入探讨这个令人惊叹的三维场景重建方法。     简单

    2024年02月07日
    浏览(30)
  • 神经网络辐射场NeRF、实时NeRF Baking、有向距离场SDF、占用网络Occupancy、NeRF 自动驾驶

    NeRF (Neural Radiance Fields,神经辐射场) 是2020年ECCV会议上的Best Paper,其将隐式表达推上了一个新的高度,仅用 2D不同的posed images 作为监督,即可渲染出 复杂的三维场景 。一石激起千层浪,自此之后NeRF迅速发展起来被应用到多个技术方向上例如新视点合成、三维重建等等,并取

    2023年04月23日
    浏览(28)
  • Mip-NeRF:抗混叠的多尺度神经辐射场ICCV2021

    数据采集时,如果采样频率不满足奈奎斯特采样定理,可能会导致采样后的信号存在混叠。 当采样频率设置不合理时,即采样频率低于2倍的信号频率时,会导致原本的高频信号被采样成低频信号。如下图所示,红色信号是原始的高频信号,但是由于采样频率不满足采样定理

    2024年02月07日
    浏览(30)
  • 【读论文】3D Gaussian Splatting for Real-Time Radiance Field Rendering

    What kind of thing is this article going to do (from the abstract and conclusion, try to summarize it in one sentence) To simultaneously satisfy the requirements of efficiency and quality, this article begins by establishing a foundation with sparse points using 3D Gaussian distributions to preserve desirable space. It then progresses to optimizing anisotrop

    2024年04月09日
    浏览(35)
  • 论文笔记《3D Gaussian Splatting for Real-Time Radiance Field Rendering》

    项目地址 原论文 最近辐射场方法彻底改变了多图/视频场景捕获的新视角合成。然而取得高视觉质量仍需神经网络花费大量时间训练和渲染,同时最近较快的方法都无可避免地以质量为代价。对于无边界的完整场景(而不是孤立的对象)和 1080p 分辨率渲染,目前没有任何方法

    2024年02月09日
    浏览(33)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包