3d重建+神经渲染

这篇具有很好参考价值的文章主要介绍了3d重建+神经渲染。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

3d重建

  • 基于深度相机(结构光、TOF、双目摄像头)的三维重建
  • 基于图像的三维重建:深度学习
  • 基于视觉几何的传统三维重建:这种三维重建方法研究时间比较久远,技术相对成熟。主要通过多视角图像对采集数据的相机位置进行估计,再通过图像提取特征后进行比对拼接完成二维图像到三维模型的转换,就像利用立体几何中的三视图还原立体图一样。

3D形状表示方法(shape representation)

  • 深度图(depth map):2D图片,每个像素都记录了从视点(viewpoint)到遮挡物表面(遮挡物就是阴影生成物体)的距离,被遮挡的部分无法表示,仅能表示物体相对于视点平面的垂直深度
  • 点云(point cloud):某个坐标系下的点的数据集。点包含了丰富的信息,包括三维坐标X,Y,Z、颜色、分类值、强度值、时间等等。在我看来点云可以将现实世界原子化,通过高精度的点云数据可以还原现实世界。可通过三维激光扫描获取。
  • 体素(voxel):3D空间中具有一定体积的点,相当于3D空间中的像素。体素本身不含有位置信息,只谈论与其他体素的相对距离
  • 网格(mesh):表示多面体形状的顶点与多边形的集合,它也叫作非结构网格
深度图(depth map) 点云(point cloud) 体素(voxel) 网格(mesh)

3d重建+神经渲染

3d重建+神经渲染

3d重建+神经渲染

3d重建+神经渲染

3d重建算法

  • Truncated Signed Distance Function (截断符号距离函数):实时3D重建经典算法。TSDF是SDF的改进,将取值限制在[-1,1]之间,同时仅在物体表面的限定的距离范围内进行计算,降低了计算量。原理:用一个大的空间包围盒(volume)去包括进去待3D构建的场景,volume分成多个voxel(小立体方块)
  • SIFT (Scale Invariant Feature Transform)
  • ANN Feature Matching (近似最邻近特征匹配)
  • SfT(Shape from Template):需要预先得到目标物体在刚性状态下的三维模型来作为模板,后面模型去追踪单目视频里目标物体的变化,得到每一帧图像对应的形变三维模型。这种方法具有实时重建的可能
  • Eight Point Algorithm (八点算法):用八个点点对应关系计算核线几何(f-matrix)两个Projective Camera之间的点点对应关系是需要满足核线几何的,就像三点可以确定一个平面一样,8对匹配可以确定两个相机的核线几何

3d重建流程

3d重建+神经渲染

  1. ->输入无序图像 Unstructured Images
  2. ->图像对齐(Assoc.),筛选图像,构建场景图(也称为连接图)。
  3. ->稀疏重建(Structure from Motion,SFM),生成稀疏的3D点云结构,该步骤的贡献是建立统一的坐标系,确定了重建物体的尺寸,提供可靠的2D-3D多对一的匹配点对。
  4. ->稠密重建(Multiple View Stereo,MVS),生成稠密的3D点云结构,该步骤的贡献生成稠密的点云。
  5. ->表面重建(Mesh,Model Fitting),稠密点云转化为网格(mesh)。
  6. ->纹理重建(Texture Mapping) ,纹理贴图,即对网格进行纹理坐标映射,进行贴纹理。
  7. ->可视化渲染

基于深度学习的3d重建算法:

  • 基于单张RGB图像的三维重建
  • 基于多视图的三维重建
  • 基于点云数据的三维重建

MVSNet(2018):Depth Inference for Unstructured Multi-view Stereo 稠密重建

第一个基于深度学习的MVS重建架构。提出一种端到端的多视图重建深度学习架构,参考基于2张图片的代价体的双目立体匹配深度估计方法,扩展到多张图片中进行深度估计。MVSNet的核心不是直接把3D模型建出来,而是端到端的学习深度图,它的目标是预测图片上每个像素的深度信息。在该架构中,首先提取深层的视觉图像特征,然后通过可微分的单应变换,基于参考视图的相机视锥体构建3D代价体。然后使用3D卷积对初始深度图进行正则化和回归得到初始的深度图,初始的深度图通过参考图像改进得到最后的深度图

LoFTR: Detector-Free Local Feature Matching with Transformers

一种新的局部图像特征匹配方法。首先在粗粒度上建立图像特征的检测、描述和匹配,然后在精粒度别上细化亚像素级别的密集匹配,而不是依次执行图像特征检测、描述和匹配。与使用cost volume来搜索对应关系的密集方法相比,本文借鉴Transformer使用了自注意层和互注意层来获得两幅图像的特征描述符。这种方法提供的全局接受域使得能够在纹理较少的区域产生密集匹配

渲染方式

  • 容积图渲染(Volume Rendering):该技术主要应用于医学图像的可视化。它利用三维空间中的体素进行渲染和加权,通过调整灰度和透明度来显示内部结构。
  • 表面渲染(Surface Rendering):该技术利用三维建模工具构建表面模型,并使用光照等效果对表面进行渲染。表面渲染技术可以生成真实的渲染效果,但需要许多处理步骤,比较繁琐
  • 可微分渲染(differentiable rendering)
  • 神经渲染(Neural rendering):基于深度生成模型和图形学领域的光学物理知识

神经辐射场(NeRF)使用多层感知器(MLP)来近似3D场景的辐射场和密度场。该学习的体表示可以使用解析可微分渲染(即体积分)从任何虚拟摄像头渲染。对于训练,假设从多个摄像机视点观测场景。从这些训练视点,渲染估计的3D场景,并最小化渲染图像和观察图像之间的差异,根据这些观察结果训练网络。一旦训练完成,由神经网络近似的3D场景可以从新的视点进行渲染,从而实现可控合成。与使用神经网络学习渲染函数的方法相反,NeRF在该方法中更明确地使用了计算机图形学的知识,由于(物理)归纳偏差,能够更好地概括新视图:场景密度和半径的中间3D结构化表示。因此,NeRF在3D空间中学习物理上有意义的颜色和密度值,物理激发的光线投射和体集成可以持续渲染到新视图中。文章来源地址https://www.toymoban.com/news/detail-495785.html

开源框架

  • OpenMVG: https://github.com/openMVG/openMVG
  • Colmap: https://github.com/colmap/colmap
  • OpenSfM:https://github.com/mapillary/OpenSfM
  • OpenMVS:https://github.com/cdcseacave/openMVS

到了这里,关于3d重建+神经渲染的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 3D深度相机---结构光

    去年的仪器仪表的课有汇报,我还专门为3D深度像机做了个调研,一直用inter realsense的,最近老师让看结构光方案的,正好总结一下。 由于基于双目立体视觉的深度相机对环境光照强度比较敏感,且比较依赖图像本身的特征,因此在光照不足、缺乏纹理等情况下很难提取到有

    2024年02月02日
    浏览(34)
  • OpenCV+相机校准和3D重建

    相机校准至少需要10个测试图案,所需的重要输入数据是3D现实世界点集以及图像中这些点的相应2D坐标。3D点称为对象点,而2D图像点称为图像点。 除了棋盘,我们还可以使用圆形网格。 在这种情况下,我们必须使用函数cv.findCirclesGrid()来找到模式。 较少的图像足以使用圆形

    2024年02月05日
    浏览(53)
  • 计算机视觉与图形学-神经渲染专题-Seal-3D(基于NeRF的像素级交互式编辑)

    摘要 随着隐式神经表示或神经辐射场 (NeRF) 的流行,迫切需要与隐式 3D 模型交互的编辑方法,以完成后处理重建场景和 3D 内容创建等任务。虽然之前的作品从不同角度探索了 NeRF 编辑,但它们在编辑灵活性、质量和速度方面受到限制,无法提供直接的编辑响应和即时预览。

    2024年02月13日
    浏览(43)
  • 文献阅读笔记系列一:事件相机3D重建的方法探究

    一.问题的描述 1.1 事件相机 事件相机是一种仿生传感器,与传统相机不同,它异步测量每像素的亮度变化,并输出编码这些变化的时间、位置和符号的事件流[1]。事件相机具有高时间分辨率、高动态范围、低功耗和高像素带宽等特性,使其在机器人和计算机视觉领域具有巨大

    2024年01月17日
    浏览(43)
  • 基于深度神经网络的3D模型合成【Transformer vs. CNN】

    本文介绍用于3D模型合成的transformer网络与深度卷积网络。 推荐:使用 NSDT场景设计器 快速搭建 3D场景。 从单一视角合成 3D 数据是一种基本的人类视觉功能,这对计算机视觉算法来说极具挑战性,这是一个共识。 但在 3D 传感器(如 LiDAR、RGB-D 相机(RealSense、Kinect)和 3D 扫描

    2024年02月07日
    浏览(66)
  • COLMAP简明教程 重建 转化深度图 导出相机参数 导入相机参数 命令行

    COLMAP是经典的3D重建、SfM、深度估计开源工作,配置和安装按下不表,本文主要从命令行的角度,对COLMAP的基本用法做教程,并备收藏和笔记。 准备好一些多视角图像,放入一个文件夹中,如下所示: 如果图像是针孔相机拍摄的,就在根目录下执行以下命令: 这些命令分别

    2024年02月10日
    浏览(57)
  • 线结构光三维重建(二)相机标定、光平面标定

    线结构光三维重建(一) https://blog.csdn.net/beyond951/article/details/125771158                   上文主要对线激光的三角测量原理、光平面的标定方法和激光条纹提取的方法进行了一个简单的介绍,本文则主要针对线激光三维重建系统的系统参数标定进行阐述,同时对采集到

    2024年02月09日
    浏览(41)
  • MedNeRF:用于从单个X射线重建3D感知CT投影的医学神经辐射场

     计算机断层扫描(CT)是一种有效的医学成像方式,广泛应用于临床医学领域,用于各种病理的诊断。多探测器CT成像技术的进步实现了额外的功能,包括生成薄层多平面横截面身体成像和3D重建。然而,这涉及患者暴露于相当剂量的电离辐射。过量的电离辐射会对身体产生

    2024年02月02日
    浏览(43)
  • 【计算机视觉|人脸建模】深度学习时代的3D人脸重建调查报告

    本系列博文为深度学习/计算机视觉论文笔记,转载请注明出处 标题: 3D Face Reconstruction in Deep Learning Era: A Survey 链接:3D Face Reconstruction in Deep Learning Era: A Survey - PubMed (nih.gov) 随着深度学习的出现和图形处理单元的广泛应用,3D人脸重建已成为生物特征识别最引人入胜的主题。

    2024年02月14日
    浏览(60)
  • 深度学习 从2D图像中重建3D人脸:使用3DDFA或PRNet模型

    在计算机视觉和图形学领域,从2D图像中重建3D人脸是一个具有挑战性的任务。在本文中,我们将介绍如何使用3DDFA和PRNet模型从2D人脸图像中重建3D人脸。我们将详细介绍每个模型的工作原理,并提供Python代码示例以帮助您快速入门。 3DDFA(Three-Dimensional Dense Face Alignment)是一

    2024年02月06日
    浏览(35)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包