论文阅读:Dense Depth Priors for Neural Radiance Fields from Sparse Input Views

这篇具有很好参考价值的文章主要介绍了论文阅读:Dense Depth Priors for Neural Radiance Fields from Sparse Input Views。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

CVPR2022

Preliminary

  • 首先我们由一组室内的RGB图像 { I i } i = 0 N − 1 , I i ∈ [ 0 , 1 ] H × W × 3 \{I_i\}^{N-1}_{i=0}, I_i \in [0,1]^{H \times W \times 3} {Ii}i=0N1,Ii[0,1]H×W×3
  • 通过SFM的方法,我们可以获得相机位姿 p i ∈ R 6 p_i \in \mathbb{R}^6 piR6, 内参矩阵 K i ∈ R 3 × 3 K_i \in \mathbb{R}^{3 \times 3} KiR3×3以及稀疏的深度图 Z i s p a r s e ∈ [ 0 , t f ] H × W Z^{sparse}_i \in [0,t_f]^{H \times W} Zisparse[0,tf]H×W

Method

论文阅读:Dense Depth Priors for Neural Radiance Fields from Sparse Input Views

Depth Completion with Uncertainty

  • 论文指出了稀疏深度重建过程中的两个问题,第一,稀疏点是由噪声以及离群点的。第二,稀疏深度点在不同图像上的数量以及位置都变化显著。
  • 针对第一点,论文在预测稠密深度的同时预测方差,类似于Uncertainty的做法。简单来说,就是在进行深度补全过程中,针对离群点和噪声点的限制进行放缩并通过不确定性估计标记噪声和离群点位置,具体可以参考[1].
    论文阅读:Dense Depth Priors for Neural Radiance Fields from Sparse Input Views
  • 也就会形成这样的损失函数:
    论文阅读:Dense Depth Priors for Neural Radiance Fields from Sparse Input Views
  • 在训练过程中,训练数据的Sparse Depth是从 Sensor Dense Depth中采样来的,为了保证稀疏深度点的真实,会通过SIFT特征点匹配的方法决定深度点的位置。

Radiance Field with Dense Depth Priors

论文阅读:Dense Depth Priors for Neural Radiance Fields from Sparse Input Views

  • 这里对NeRF的表示方法中嵌入了一个向量 l ∈ R e \mathscr{l} \in \mathbb{R}^e lRe。这使得网络能够补偿不一致的照明以及镜头阴影等。
  • NeRF深度估计和方差可以通过以下公式获得:
    论文阅读:Dense Depth Priors for Neural Radiance Fields from Sparse Input Views
  • 对于深度的监督Loss如下:
    论文阅读:Dense Depth Priors for Neural Radiance Fields from Sparse Input Views

Reference

[1]Zhu Y, Dong W, Li L, et al. Robust depth completion with uncertainty-driven loss functions[C]//Proceedings of the AAAI Conference on Artificial Intelligence. 2022, 36(3): 3626-3634.文章来源地址https://www.toymoban.com/news/detail-493251.html

到了这里,关于论文阅读:Dense Depth Priors for Neural Radiance Fields from Sparse Input Views的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 一文搞懂 神经辐射场(Neural Radiance Fields,NeRF)

    神经辐射场(Neural Radiance Fields,简称NeRF)是一种计算机视觉技术,用于生成高质量的三维重建模型。它利用深度学习技术从多个视角的图像中提取出对象的几何形状和纹理信息,然后使用这些信息生成一个连续的三维辐射场,从而可以在任意角度和距离下呈现出高度逼真的

    2024年02月06日
    浏览(18)
  • 3d场景重建&图像渲染 | 神经辐射场NeRF(Neural Radiance Fields)

         NeRF(Neural Radiance Fields,神经辐射场)是一种用于 3D场景重建和图像渲染 的深度学习方法。它由Ben Mildenhall等人在2020年的论文《NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis》中首次提出。NeRF通过学习场景的连续体积密度和颜色分布, 能够从任意视角准确地渲

    2024年03月17日
    浏览(52)
  • SFM(Structure from Motion)和NeRF(Neural Radiance Fields)

    SFM(Structure from Motion)和NeRF(Neural Radiance Fields)都是计算机视觉领域中的重要算法,用于不同的任务和应用。 SFM(Structure from Motion): SFM是一种从图像序列中重建三维场景的技术。它通过分析相机在不同视角下捕获的图像来推断场景的三维结构和摄像机的运动。SFM算法可以

    2024年02月13日
    浏览(19)
  • PC-NeRF: Parent-Child Neural Radiance Fields Using Sparse LiDAR Frames in Autonomous

    第二个工作,大家有时间可以去github点个小星星啦,and 希望大家不要喷啦,感谢感谢 Large-scale 3D scene reconstruction and novel view synthesis are vital for autonomous vehicles, especially utilizing temporally sparse LiDAR frames. However, conventional explicit representations remain a significant bottleneck towards representin

    2024年04月11日
    浏览(13)
  • 论文阅读 - Non-Local Spatial Propagation Network for Depth Completion

    本文提出了一种非局部的空间传播网络用于深度图补全,简称为NLSPN。 (1)为什么需要深度图补全? 在AR、无人机控制、自动驾驶和运动规划等应用当中,需要知道物体的稠密深度信息。现有的大部分深度传感器,如雷达、RGB-D相机等,可以提供RGB图片和准确的稀疏深度图,

    2024年02月19日
    浏览(22)
  • 论文阅读:Making Large Language Models A Better Foundation For Dense Retrieval

    论文链接 密集检索需要学习区分性文本嵌入来表示查询和文档之间的语义关系。考虑到大型语言模型在语义理解方面的强大能力,它可能受益于大型语言模型的使用。然而,LLM是由文本生成任务预先训练的,其工作模式与将文本表示为嵌入完全不同。因此,必须研究如何正确

    2024年01月21日
    浏览(29)
  • 【论文阅读】Scaling Laws for Neural Language Models

    本文简要介绍 Scaling law 的主要结论 原文地址:Scaling Laws for Neural Language Models 个人认为不需要特别关注公式内各种符号的具体数值,而更应该关注不同因素之间的关系,比例等 Performance depends strongly on scale, weakly on model shape scale: 参数量 N N N , 数据量 D D D , 计算量 C C C shape: 模

    2024年02月16日
    浏览(21)
  • GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis

    Abstract 虽然 二维生成对抗网络能够实现高分辨率的图像合成, 但 它们在很大程度上 缺乏对三维世界和图像形成过程的理解 。因此,它们 不能提供对相机视点或物体姿态的精确控制 。 为了解决这个问题,最近的几种方法 利用基于 中间体素的表示 与 可微 渲染 相结合。 然

    2023年04月17日
    浏览(19)
  • 论文阅读《Spherical Space Feature Decomposition for Guided Depth Map Super-Resolution》

    论文地址:https://openaccess.thecvf.com/content/ICCV2023/papers/Zhao_Spherical_Space_Feature_Decomposition_for_Guided_Depth_Map_Super-Resolution_ICCV_2023_paper.pdf 源码地址: https://github.com/Zhaozixiang1228/GDSR-SSDNet   GDSR是一种多模态图像处理的热门话题,它的目的是利用同一场景中的高分辨率(HR)RGB图像中

    2024年01月16日
    浏览(21)
  • 论文阅读《Nougat:Neural Optical Understanding for Academic Documents》

    科学知识主要存储在书籍和科学期刊中,通常以PDF的形式。然而PDF格式会导致语义信息的损失,特别是对于数学表达式。我们提出了Nougat,这是一种视觉transformer模型,它执行OCR任务,用于将科学文档处理成标记语言,并证明了我们的模型在新的科学文档数据集上的有效性。

    2024年02月09日
    浏览(27)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包