NeRF必读:Instant-NGP----RTX3090单卡就能玩转NeRF

这篇具有很好参考价值的文章主要介绍了NeRF必读:Instant-NGP----RTX3090单卡就能玩转NeRF。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言

NeRF从2020年发展至今,仅仅三年时间,而Follow的工作已呈井喷之势,相信在不久的将来,NeRF会一举重塑三维重建这个业界,甚至重建我们的四维世界(开头先吹一波)。NeRF的发展时间虽短,有几篇工作却在我研究的领域开始呈现万精油趋势:

  • PixelNeRF----泛化法宝
  • MipNeRF----近远景重建
  • NeRF in the wild----光线变换下的背景重建
  • NeuS----用NeRF重建Surface
  • Instant-NGP----多尺度Hash编码实现高效渲染

今天的主角是来自NVlabs的Instant-NGP

概述

如何对空间中的采样点 x \mathbf{x} x进行位置编码(position encoding)从而使得NeRF能够对3D空间进行多尺度的精确表达是NeRF社区一直关注的问题。总体来说面临的一个进退两难问题是:要嘛大模型进行多轮采样得到高精度的渲染结果,要嘛模型小训得快得到一个粗糙的结果。
所以问题来了,有没有一种~既要,又要,还要的方法可以实现训得快、单卡也玩得起、精度还高呢?
啥?小镇做题家也能要自行车?NVlabs为我们送来一台,关键是Instant-NGP这台自行车还啥路都能骑,有图为证:
NeRF必读:Instant-NGP----RTX3090单卡就能玩转NeRF
上图列出了四项Instant-NGP完成的任务:

  1. 高分辨率图像下的三维渲染(类推large-scale下应该也可以搞)。
  2. SDF重建任务,喂喂三维重建也能搞了,妙~
  3. Neural Radiance Caching(那将该方法扩展到Phong 光照模型下也不是不可以)。
  4. NeRF的高效渲染。
    总的来说Instant-NGP有以下这两个特点:普适性:Adaptivity,高效性:Efficiency

方法

NeRF必读:Instant-NGP----RTX3090单卡就能玩转NeRF
说起来Instant-NGP的novelty挺简单直接,主要是改变了采样点 x \mathbf{x} x的编码方式,一句话概括就是:将 x \mathbf{x} x分解为L层hash编码,每层hash编码分别表示了不同的分辨率。在每层hash编码中, x \mathbf{x} x取周围编码点特征值的加权平均作为自身的特征值, 叠加L层hash编码的特征值送入模型中inferene出该点的渲染结果 ( σ , c ) (\sigma,\mathbf{c}) (σ,c),随后就是NeRF的一系列操作了。具体的例子可以看某乎的这篇文章:instant-ngp论文解释
下面来解释一下文章的几个关键的公式:

  1. 确定每层hash特征的分辨率大小(举个例子:2等分到64等分),表达成公式就是: [ N m i n , N m a x ] [N_{min},N_{max}] [Nmin,Nmax],而每层具体是几等分通过下面公式确定:
    N l : = ⌊ N m i n ⋅ b l ⌋ b : = exp ⁡ ( l n N m a x − l n N m i n L − 1 ) . N_l:=\lfloor N_{min}\cdot b^l\rfloor \\ b:=\exp(\frac{ln N_{max}-ln N_{min}}{L-1}). Nl:=Nminblb:=exp(L1lnNmaxlnNmin).

  2. 接下来就是如何把一个三维空间的 x \mathbf{x} x编码到1维的hash空间中:
    h ( x ) = ⨁ i = 1 d x i π i   m o d   T , h(x)=\bigoplus^d_{i=1}x_i\pi_i \space mod \space T, h(x)=i=1dxiπi mod T,

  3. 如何双线性插值,也请移步:instant-ngp论文解释
    此时position embedding已经搞定了,不过我们还可以加入direction embedding, image feature embedding等等,就把它命名为 ξ \xi ξ。 现在Instant-NGP版本的position embedding就搞定了。文章来源地址https://www.toymoban.com/news/detail-487712.html

到了这里,关于NeRF必读:Instant-NGP----RTX3090单卡就能玩转NeRF的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 实验笔记之——基于COLMAP的Instant-NGP与3D Gaussian Splatting的对比

    之前博客进行了COLMAP在服务器下的测试 实验笔记之——Linux实现COLMAP-CSDN博客 文章浏览阅读794次,点赞24次,收藏6次。学习笔记之——NeRF SLAM(基于神经辐射场的SLAM)-CSDN博客NeRF 所做的任务是 Novel View Synthesis(新视角合成),即在若干已知视角下对场景进行一系列的观测(

    2024年01月23日
    浏览(33)
  • LLaMA-META发布单卡就能跑的大模型

    2023年2月25日,Meta使用2048张A100 GPU,花费21天训练的Transformer大模型LLaMA开源了。 1.4T tokenstakes approximately 21 days 以下是觉得论文中重要的一些要点 1)相对较小的模型也可以获得不错的性能 研究者发现在给定计算能力限制的情况下,最好的性能并不是来源于更大的模型,而是来

    2023年04月08日
    浏览(28)
  • NVIDIA GeForce RTX 3090 GPU系列

    NVIDIA GeForce RTX™ 3090 Ti 和 3090 采用第 2 代 NVIDIA RTX 架构 – NVIDIA Ampere 架构。该系列产品搭载专用的第 2 代 RT Core ,第 3代 Tensor Core、全新的 SM 多单元流处理器以及令人惊叹的 24GB G6X 显存,所有特性都旨在全力为游戏玩家和创作者提供震撼的体验。 GeForce RTX 3090 Ti和GeForce RTX

    2024年01月19日
    浏览(44)
  • RTX3090 ubuntu20.04 多版本cuda共存

    背景:已安装cuda10.1;代码在安装的nvidia-tensorflow1.15上运行报错。 目标:安装cuda10.0并可与cuda10.1切换使用。 结果:cuda可以共存多个版本,修改环境变量指向欲使用版本cuda的相关路径即可;使用cuda10.0代码还是跑不了,原因在于30显卡要安装cuda11或以上;还是跑不了,原因在

    2023年04月24日
    浏览(52)
  • 适用于深度学习的GPU服务器选RTX4090与RTX3090哪个更合适、更划算?

    一、弄清基本参数对比 RTX 4090 具有 760 亿个晶体管、16384 个 CUDA 核心和 24 GB 高速美光 GDDR6X 显存, 4090单精度浮点73TFLOPs RTX 3090 ,搭载了 10496 个流处理器与 24G GDDR6X 显存,带宽为 936GB/S。 3090单精度浮点35.7TFLOPs   二、以同等算力的情况做简单的对比 简单给大家算一下, 从单

    2024年02月17日
    浏览(43)
  • MiniGPT4 在RTX-3090 Ubuntu服务器部署步骤详解

    MiniGPT4系列之一部署篇:在RTX-3090 Ubuntu服务器部署步骤详解_seaside2003的博客-CSDN博客 MiniGPT4系列之二推理篇命令行方式:在RTX-3090 Ubuntu服务器推理详解_seaside2003的博客-CSDN博客 MiniGPT4系列之三模型推理 (Web UI):在RTX-3090 Ubuntu服务器推理_seaside2003的博客-CSDN博客 主要参考知乎帖子

    2024年02月15日
    浏览(38)
  • Ubantu从0开始配置深度学习RTX 4090+3090显卡的服务器

    实验室刚到一台Dell服务器主机,里面配置一张RTX 4090和RTX 3090显卡,弄了好久终于能成功运行PyTorch深度学习模型,现在将过程描述如下: 首先是系统,选择的是Ubantu 18.02版本,这个直接下载安装就不说了,直接下一步下一步,没什么问题 然后是显卡驱动,这个由于我们的主

    2024年02月05日
    浏览(72)
  • 【代码复现】5秒训练NeRF!英伟达instan-ngp在windows成功复现

    NeRF在我之前的文章中已经介绍过其牛X之处,不过它也存在如训练、推理慢等问题。近期,Nvidia提出的instant-ngp算法实现了快速的NeRF训练和推理。本文主要介绍了在Windows10系统下运行instant-ngp的方法和我在复现过程中出现的一些小问题。 instant-ngp代码链接:https://github.com/NVla

    2024年02月10日
    浏览(25)
  • NeRF必读五:NeRF in the wild

    NeRF从2020年发展至今,仅仅三年时间,而Follow的工作已呈井喷之势,相信在不久的将来,NeRF会一举重塑三维重建这个业界,甚至重建我们的四维世界(开头先吹一波)。NeRF的发展时间虽短,有几篇工作却在研究领域开始呈现万精油趋势: PixelNeRF----泛化法宝 MipNeRF----近远景重

    2023年04月23日
    浏览(79)
  • 一块RTX 3090加速训练YOLOv5s,时间减少11个小时,速度提升20%

    作者| BBuf 很高兴为大家带来One-YOLOv5的最新进展,在《一个更快的YOLOv5问世,附送全面中文解析教程》发布后收到了很多算法工程师朋友的关注,十分感谢。 不过,可能你也在思考一个问题:虽然OneFlow的兼容性做得很好,可以很方便地移植YOLOv5并使用OneFlow后端来进行训练,

    2024年02月05日
    浏览(48)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包