Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D Shapes 论文笔记&环境配置

这篇具有很好参考价值的文章主要介绍了Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D Shapes 论文笔记&环境配置。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

论文基本信息:

发布于 CVPR 2021

Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D Shapes 论文笔记&环境配置,3D点云论文学习笔记,3d,论文阅读,深度学习,考研

创新点

  1. 论文介绍了一种具有神经SDF的复杂几何实时渲染方法。

  2. 论文提出了一种神经SDF表示,可以有效地捕获多个LOD,并以最先进的质量重建3D几何图形。

  3. 论文中的架构可以以比传统方法具有更高视觉保真度的压缩格式表示 3D 形状,并且即使在单个学习示例中也能跨不同几何图形进行泛化。

  1. 背景:

直接渲染神经sdf,可以使用寻根算法(如球面追踪),进行光线跟踪。

  1. Pipeline:

SDF的表现形式:

d=f(x) 是点x到体积M的表面S的最短符号距离,符号表示的x在M的内部或外部。Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D Shapes 论文笔记&环境配置,3D点云论文学习笔记,3d,论文阅读,深度学习,考研

Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D Shapes 论文笔记&环境配置,3D点云论文学习笔记,3d,论文阅读,深度学习,考研

使用与标准的SDF类似,使用神经网络的参数和编码形状的附加学习输入特征来表示SDF。(使用包含特征向量集合的特征体积,表示为Z。

推理流程:

        针对于查询点x,先找到其八叉树中最精细级别的分辨率,并记录包含这个查询点的所有分辨率级别(V1, V2, ... , VL),针对不同的分辨率级别通过三线性插值得到特征形状向量并拼接不同分辨率得到的特征形状向量与x一起经过一个包含lod特殊参数的MLP得到预测的距离。(ps:[.|.]表示拼接)

Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D Shapes 论文笔记&环境配置,3D点云论文学习笔记,3d,论文阅读,深度学习,考研

水平混合:

Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D Shapes 论文笔记&环境配置,3D点云论文学习笔记,3d,论文阅读,深度学习,考研

对于两个离散的不同的LOD分辨率级别,论文为了获得连续的LOD L,通过在不同的离散八叉树LODs直接通过线性插值相应的预测距离来得到。

Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D Shapes 论文笔记&环境配置,3D点云论文学习笔记,3d,论文阅读,深度学习,考研

训练损失设置:

自适应射线步进:

稀疏Ray-Octree交集:

该算法首先生成一组射线R(由i索引),并将它们存储在射线-体素对的数组N(0)中。用根节点、八叉树的顶层体素(第2行)初始化每个n(0)i∈N(0)。

接下来,我们迭代八叉树级别(第3行)。在每次迭代中,我们确定导致DECIDE交集的射线-体素对,如果射线与体素相交,则返回Dj = 1的决策列表,否则Dj = 0(第4行)。

然后,我们使用 EXCLUSIVESUM 来计算列表 D 的排他性和 S,我们将其输入接下来的两个子例程(第 5 行)。

如果我们还没有达到我们想要的LOD级别L,我们使用SUBDIVIDE填充下一个列表N(+1),其子体素是射线相交并继续迭代(第9行)。否则,我们使用 COMPACTIFY 删除所有不会导致交集的 N(l)(第 7 行)。

结果是八叉树每一层的光线体素交点的紧凑、深度排序的列表。请注意,通过分析射线原点落在体素内的空间的八分区,我们可以对子体素进行排序,以便光线-体素对 N(L) 的列表将按到射线原点的距离排序。

💎实验成果展示:

Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D Shapes 论文笔记&环境配置,3D点云论文学习笔记,3d,论文阅读,深度学习,考研

  • 此表显示了与三个不同数据集的架构和每个形状重建比较。在所有评估方案下,论文中的模型从 LOD 3 开始的架构尽管存储和推理参数要低得多,但性能要好得多。

  • 表示的存储大小是根据所有数据集中所有形状的平均稀疏体素数量以及解码器大小推理参数来计算的。

🔍问题分析:

问题1

由于在训练过程中很大程度依赖于训练期间使用的点样本,因此难以扩展到非常大的场景或非常薄的无体积集合。

问题2

无法使用传统的方法变形几何形状。

源码环境配置:

  1. Linux 安装cuda-11.3

 
$ wget https://developer.download.nvidia.com/compute/cuda/11.3.0/local_installers/cuda_11.3.0_510.39.01_linux.run

根据提示安装后输入如下指令查看是否成功安装cuda11.3:Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D Shapes 论文笔记&环境配置,3D点云论文学习笔记,3d,论文阅读,深度学习,考研

  1. conda创建配置新环境

conda create -n nglod python=3.8
conda activate nglod 
pip install --upgrade 
# pip # requirements.txt 中的git+https://github.com/tinyobjloader/tinyobjloader.git#subdirectory=python 
# 需要调整为: 
# 1. git clone https://github.com/tinyobjloader/tinyobjloader.git 
# 2. cd tinyobjloader 
# 3. pip install . 
# 其中Pillow的版本有限制 
# pip install Pillow==9.5.0 

pip install -r ./infra/requirements.txt 

# 安装OpenEXR库 
sudo apt install libopenexr-dev pip install pyexr 

# 构建 CUDA 扩展 
cd sdf-net/lib/extensions 
chmod +x build_ext.sh && ./build_ext.sh
  1. 下载样本数据文章来源地址https://www.toymoban.com/news/detail-820828.html

wget https://raw.githubusercontent.com/alecjacobson/common-3d-test-models/master/data/armadillo.obj -P data/ 
wget https://raw.githubusercontent.com/nidorx/matcaps/master/1024/6E8C48_B8CDA7_344018_A8BC94.png -O data/matcap/green.png

到了这里,关于Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D Shapes 论文笔记&环境配置的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • [SIGGRAPH-23] 3D Gaussian Splatting for Real-Time Radiance Field Rendering

    pdf | proj | code 本文提出一种新的3D数据表达形式3D Gaussians。每个Gaussian由以下参数组成:中心点位置、协方差矩阵、可见性、颜色。通过世界坐标系到相机坐标系,再到图像坐标系的仿射关系,可将3D Gaussian映射到相机坐标系,通过对z轴积分,可得到对应Splatting 2D分布。 针对

    2024年02月04日
    浏览(46)
  • 3D Gaussian Splatting for Real-Time Radiance Field Rendering(论文中代码复现)

    3D Gaussian Splatting for Real-Time Radiance Field Rendering https://repo-sam.inria.fr/fungraph/3d-gaussian-splatting/ 主要研究方法是使用3D高斯光点绘制(3D Gaussian Splatting)方法进行实时光辐射场渲染。该方法结合了3D高斯场表示和实时可微分渲染器,通过优化3D高斯场的属性和密度控制,实现了高质

    2024年02月03日
    浏览(46)
  • 3DGS 其一:3D Gaussian Splatting for Real-Time Radiance Field Rendering

    Reference: 深蓝学院:NeRF基础与常见算法解析 GitHub: gaussian-splatting 原文官网 A Survey on 3D Gaussian Splatting 开始弃用NeRF?为什么Gaussian Splatting在自动驾驶场景如此受欢迎? 相关文章: NeRF 其一:NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis NeRF 其二:Mip-NeRF NeRF 其三:In

    2024年01月18日
    浏览(71)
  • 3D Gaussian Splatting for Real-Time Radiance Field Rendering论文中代码复现及排错过程

    graphdeco-inria/gaussian-splatting: Original reference implementation of “3D Gaussian Splatting for Real-Time Radiance Field Rendering” (github.com) 以下是最初电脑所安装的内容: Anaconda3 2022.10-Windows-x86_64 CUDA 电脑只支持11.6,所以装的是11.6版本。 使用git去克隆repository 尽管挂了梯子,但是还是需要多次刷

    2024年02月05日
    浏览(55)
  • 【语音增强论文解读 03】TCNN: TEMPORAL CONVOLUTIONAL NEURAL NETWORK FOR REAL-TIME SPEECHENHANCEMENT IN THE TIME

    作者:Ashutosh Pandey and DeLiang Wang 文末附文章地址及其开源代码地址         尽管使用 T-F 表示是最流行的方法,但它也有一些缺点。首先,这些方法通常忽略干净的相位信息,并使用噪声相位进行时域信号重建。         受成功实现用于序列建模的 TCNN 以及基于编解码

    2024年02月02日
    浏览(41)
  • NeRF-SLAM: Real-Time Dense Monocular SLAM with Neural Radiance Fields 论文阅读

    题目 :NeRF-SLAM: Real-Time Dense Monocular SLAM with Neural Radiance Fields 作者 :Antoni Rosinol, John J. Leonard, Luca Carlone 代码 :https://github.com/ToniRV/NeRF-SLAM 来源 :arxiv 时间 :2022 我们提出了一种新颖的几何和光度 3D 映射流程,用于从单目图像进行准确、实时的场景重建。 为了实现这一目标

    2024年02月14日
    浏览(52)
  • 深度学习神经网络学习笔记-多模态方向-11-Deep Voice: Real-time Neural Text-to-Speech

    本文提出Deep Voice,一种完全由深度神经网络构建的生产质量文本到语音系统。Deep Voice为真正的端到端神经语音合成奠定了基础。该系统由五个主要的构建模块组成:用于定位音素边界的分割模型、字素到音素的转换模型、音素时长预测模型、基频预测模型和音频合成模型。对

    2024年02月06日
    浏览(45)
  • 基于CNN的动态手势识别:Real-time Hand Gesture Detection and Classification Using Convolutional Neural Networks

    论文链接:https://arxiv.org/abs/1901.10323 论文代码(PyTorch版本):https://github.com/ahmetgunduz/Real-time-GesRec 论文出处:CVPR2019 从视频流中实时识别动态手势是一项具有挑战性的任务,因为(i)在视频中没有指示手势何时开始和结束,(ii)所表演的手势只应识别一次,以及(iii)考虑内存和功

    2024年02月05日
    浏览(36)
  • 【目标检测论文阅读笔记】RTMDet: An Empirical Study of Designing Real-Time Object Detectors(2022)

            在本文中,我们的目标是 设计一种高效的实时物体检测器,它超越了 YOLO 系列,并且可以轻松扩展到许多物体识别任务 ,例如实例分割和旋转物体检测。为了获得更高效的模型架构,我们探索了一种  在主干和颈部具有兼容能力的架构 ,该架构  由一个 由 大核

    2024年02月07日
    浏览(62)
  • LiDAR SLAM 闭环——BoW3D: Bag of Words for Real-time Loop Closing in 3D LiDAR SLAM

    标题:BoW3D: Bag of Words for Real-Time Loop Closing in 3D LiDAR SLAM 作者:Yunge Cui,Xieyuanli Chen,Yinlong Zhang,Jiahua Dong,Qingxiao Wu,Feng Zhu 机构:中科院沈阳自动化研究所 来源:2022 RAL 现算法已经开源,代码链接: GitHub - YungeCui/BoW3D: [RA-L] BoW3D: Bag of Words for Real-Time Loop Closing in 3D LiDAR SLAM.      

    2024年02月12日
    浏览(48)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包