摘要:针对光场成像中因硬件限制而造成的光场图像角度分辨率低的问题,提出一种融合3D对极平面图像的光场角度超分辨重建方法。该方法首先将输入图像按不同的视差方向排列分别进行特征提取,以充分利用输入图像的视差信息,提高深度估计的准确性。利用深度图将输入图像映射到新视角位置,生成初始合成光场。为了使重建光场图像能够保持更好的细节信息及几何一致性,先通过水平3D对极平面图像融合重建分支和垂直3D对极平面图像融合重建分支,分别对初始合成光场进行水平融合重建和垂直融合重建,再将两个结果进行混合重建,生成最终的高角度分辨率光场图像。实验结果表明:相比于现有方法,本文方法在合成光场数据集和真实光场数据集上的重建效果均得到了提高,峰值信噪比的提升幅度最高达1.99%,有效地提高了重建光场的质量。
关键词:光场;超分辨重建;3D对极平面图像;卷积神经网络
1 引言
光场(LightField,LF)成像可以捕获到现实世界的四维信息[1](二维空间信息和二维角度信息),克服了传统成像技术只能捕获到二维空间信息的局限性,具有能在不同焦距下进行重投影的独特优势,逐渐在工业探测、生命科学和虚拟现实等领域受到重视[2-4]。光场图像的角度分辨率会直接影响三维重建、光场渲染等视觉应用的效果。然而,微透镜阵列光场相机受到传感器分辨率的限制,必须在空间分辨率和角度分辨率之间进行平衡。所以,提高光场图像的空间分辨率和角度分辨率一直是光场成像的研究热点。
光场角度超分辨重建(AngularSuper-resolu⁃tionReconstruction,ASR)分为不基于深度信息的重建和基于深度信息的重建两种方法。不基于深度信息的重建方法在没有场景几何信息的情况下直接对角度维度进行上采样。Shi等[5]通过优化连续傅里叶域中的稀疏性进行光场重建。Vagharshakyan等[6]提出了一种自适应迭代正则化算法,在剪切波域中利用对极平面图像(Epipo⁃larPlaneImage,EPI)的稀疏表示来重建光场图像。但是,这些传统方法需要大量的输入图像。Yoon等[7]采用深度学习方法重建高分辨率光场,利用相邻的两个进行空间上采样后的图像逐个重建中间视角图像。该方法仅利用较少的角度信息,无法直接在任意位置合成新视图。Wu等[8]将光场重建问题转化为EPI的角度域细节恢复问题,提出“模糊-恢复-去模糊”的框架。该方法有效地提高了遮挡区域及非朗伯表面的重建效果,但是需要重复执行很多次。Wang等[9-10]构建了伪4D卷积神经网络(ConvolutionalNeuralNetwork,CNN),在3DEPI上直接进行插值重建。Salem等[11]将角度维度上采样后的图像堆栈输入残差通道注意力网络,学习重要特征,恢复更多的纹理细节信息。由于没有建模场景的几何信息,这些方法都不能很好地处理更加稀疏采样的输入图像。
基于深度信息的重建方法是指在重建过程中估计出所有视角的深度图,然后利用深度图将输入图像映射到新视角位置。Wanner等[12]利用结构张量法估计视差图,并通过能量函数惩罚映射图像和真实图像之间的误差来合成新视图,但这种方法必须在视点采样足够密集时才能达到合理的精度。Penner等[13]在软3D重建过程中充分考虑了深度信息的不确定性,使这个框架同时适用于结构化和非结构化的输入图像。传统方法一般聚焦于深度图的精度。近年来,基于深度学习的方法得到了广泛的应用。Kalantari等[14]预定义一组深度等级,并将每个等级上所有映射图像的均值和标准差作为手动提取到的特征输入端到端的顺序网络,进行深度估计和颜色估计。该方法有效提高了重建光场图像的质量,但是每次只能合成一个新视角图像。Vadathya等[15]利用散焦图像和聚焦图像进行视差估计,并通过修复网络修复遮挡造成的错误像素。Jin等[16]提出在空间域和角度域执行交错卷积的策略,有效提高了大基线光场的重建质量。Navar⁃ro等[17]在每个新视角位置对映射图像计算融合权重,并将其加权融合。Gul等[18]在融合映射图像时引入注意力机制,有效地处理了遮挡区域。Yun等[19]提出基于多重感受野的分层特征提取方法,用于提高深度估计的准确度。上述方法在处理映射图像时或只利用光场的空间信息,或交错利用空间信息和角度信息,不利于提高光场图像的重建质量。
光场图像的重建质量与能否充分利用光场图像的丰富信息有关。光场图像的3DEPI既包含空间信息,也包含角度信息[20],利用这一特点,本文提出融合3DEPI的光场角度超分辨重建方法。该方法由3部分组成:(1)深度估计模块将输入图像按视差方向分为不同的图像对,分别进行特征提取,提取到的特征用来无监督地估计密集光场所有视角的深度图;(2)图像映射部分利用样的输入图像。
基于深度信息的重建方法是指在重建过程中估计出所有视角的深度图,然后利用深度图将输入图像映射到新视角位置。Wanner等[12]利用结构张量法估计视差图,并通过能量函数惩罚映射图像和真实图像之间的误差来合成新视图,但这种方法必须在视点采样足够密集时才能达到合理的精度。Penner等[13]在软3D重建过程中充分考虑了深度信息的不确定性,使这个框架同时适用于结构化和非结构化的输入图像。传统方法一般聚焦于深度图的精度。近年来,基于深度学习的方法得到了广泛的应用。Kalantari等[14]预定义一组深度等级,并将每个等级上所有映射图像的均值和标准差作为手动提取到的特征输入端到端的顺序网络,进行深度估计和颜色估计。该方法有效提高了重建光场图像的质量,但是每次只能合成一个新视角图像。Vadathya等[15]利用散焦图像和聚焦图像进行视差估计,并通过修复网络修复遮挡造成的错误像素。Jin等[16]提出在空间域和角度域执行交错卷积的策略,有效提高了大基线光场的重建质量。Navar⁃ro等[17]在每个新视角位置对映射图像计算融合权重,并将其加权融合。Gul等[18]在融合映射图像时引入注意力机制,有效地处理了遮挡区域。Yun等[19]提出基于多重感受野的分层特征提取方法,用于提高深度估计的准确度。上述方法在处理映射图像时或只利用光场的空间信息,或交错利用空间信息和角度信息,不利于提高光场图像的重建质量。
光场图像的重建质量与能否充分利用光场图像的丰富信息有关。光场图像的3DEPI既包含空间信息,也包含角度信息[20],利用这一特点,本文提出融合3DEPI的光场角度超分辨重建方法。该方法由3部分组成:(1)深度估计模块将输入图像按视差方向分为不同的图像对,分别进行特征提取,提取到的特征用来无监督地估计密集光场所有视角的深度图;(2)图像映射部分利用得到的深度图将输入图像反向映射到每一个新视角位置,得到初始合成光场;(3)光场融合重建模块分为两个分支,分别从水平方向和垂直方向对初始合成光场的3DEPI进行融合,得到水平方向和垂直方向的重建结果,再对两个重建结果进行混合重建,得到最终的高角度分辨率光场图像。该方法通过评估3DEPI来引导光场融合,能够在处理映射图像时同时考虑空间信息和角度信息,使重建的光场图像保持更好的细节信息及几何一致性。
2 原理
2.1 光场成像及光场的3D对极平面图像
微透镜阵列光场相机的成像原理如图1所示,将微透镜阵列置于主透镜的焦平面处,微透镜可以将同一场景点不同方向的光线信息解耦,并记录在对应位置的传感器上,从而得到光线的空间信息和角度信息[21]。每个微透镜捕获一个场景点不同方向的光线信息,一个方向代表一个视角,视角的总数即为光场图像的角度分辨率。光场图像的空间分辨率是指捕获的场景点的数量,即微透镜的数量。在所有微透镜中固定角度坐标,将对应的像素点全部提取,可得到光场图像的一个视角图像,即子孔径图像。
图1微透镜阵列光场相机成像原理示意图[21]
如图2所示,在光场图像L(x,y,s,t)中,x和y表示二维空间坐标,s和t表示二维角度坐标。在水平方向,通过固定y轴坐标和t轴坐标,将x轴和s轴的像素点都提取出来,即可得到水平EPIEy∗,t∗(x,s)。只固定角度坐标t,将s轴的子孔径图像进行堆叠,即可得到水平3DEPIIt∗(x,y,s)。在垂直方向执行类似的操作即可得 到垂直EPIEx∗,s∗(y,t)和垂直3DEPIIs∗(x,y,t)[20]。EPI清晰地反映了水平方向或垂直方向上每个场景点在各个视角图像中的移动轨迹,能够体现光场图像的几何一致性。3DEPI包含光场图像的二维空间信息和一维角度信息,EPI包含光场图像的一维空间信息和一维角度信息。
图2光场图像及其3DEPI与EPI
2.2 方法框架
对于4D光场图像L(x,y,s,t)[1],为了简化数学表达式,二维空间坐标(x,y)用x来简化表示,二维角度坐标(s,t)将用s来简化表示,即将L(x,y,s,t)简化表示为L(x,s)。光场图像角度超分辨重建利用稀疏光场图像L'(x,s')重建密集光场图像(x,s),该问题可表示为:
(x,s)=f(L'(x,s')),(1)
其中f为光场图像角度超分辨重建对应的映射函数。本文提取密集光场图像4个角的子孔径图像作为稀疏光场图像,即输入图像。结合光场图像的3DEPI包含空间信息和角度信息的特点,提出一种融合3DEPI的光场角度超分辨重建方法。该方法遵循基于深度信息的重建方法的一般步骤,即深度估计、图像映射和光场融合重建,深度学习网络框架如图3所示。深度估计模块利用输入图像估计出密集光场所有视角的深度图。这些深度图可以把输入图像映射到每一个新视角位置,以合成初始光场。由于遮挡和深度图的不精确性,映射后的图像会产生几何扭曲。因此在最后的光场融合部分,与一般的直接融合映射图像的方法不同,本文的光场融合重建从水平和垂直两个方向分别融合由不同的输入图像映射产生的初始光场的3DEPI,再将水平重建结果与垂直重建结果混合,获得最终的高角度分辨率光场图像。
图3融合3DEPI的光场图像角度超分辨重建网络框架
2.3 深度估计模块
光场图像具有规则的几何一致性,视差与深度成反比,这为深度估计模块无监督地估计所有视角的深度图提供了基础。给定位置为s0的已知视角图像L(x,s0),ds1(x)是位置为s1的待重建新视角图像L(x,s1)的深度图,则[12]:
L(x,s1)=L(x+(s1-s0)ds1(x),s0).(2)
深度估计模块利用输入图像估计出密集光场所有视角的深度图D(x,s),即:
D(x,s)=fd(L'(x,s')),(3)
其中fd为输入图像与深度图之间的映射关系。
深度估计模块在每个新视角位置生成对应景物的深度图,利用深度图将输入图像映射到新视角位置可以引入更多的场景信息,有利于减少大基线光场重建的伪影,提高光场重建的质量。光场图像的多视角结构决定了它具有多个方向的视差。为了更好地估计输入图像与深度图之间的映射关系,本文将输入图像分为水平、垂直和对角3类图像对(如图4所示),分别送入结构相同的网络分支进行特征提取,学习不同方向的视差信息。稀疏光场本身就是密集光场的欠采样,光场图像4个角的子孔径图像作为整个场景的边缘视角,每个视角都包含重要的场景信息,特别是各个物体间的遮挡关系。所以,与Gul等[18]根据合成图像的位置选取距离最近的3幅输入图像组成3个图像对不同,本文利用4幅输入图像组成6个图像对,充分利用所有输入图像的视差信息。
深度估计模块首先通过特征提取网络对不同方向的图像对分别提取像素匹配特征。视差具有方向性,这样按视差方向进行特征提取的方法可以提取到更加精准的匹配特征,这些特征输入到后续的深度估计网络来生成深度图。如图4所示,特征提取网络分支类似于Epin⁃ et[22],图像对首先通过1个包含32个3×3卷积核的卷积层(Conv),然后连续通过3个结构为“Conv-ReLU-Conv”的残差块(ResBlock),其中残差块的输入作为残差部分与输出相加,且残差块中的卷积层同样由32个3×3卷积核组成。特征提取完毕后,将6个分支提取的特征按顺序串联到一起作为深度估计网络的输入。深度估计网络由7个卷积层组成,其中前2个卷积层使用扩张率为2的5×5卷积,其余为3×3卷积层。深度估计网络除了最后一个卷积层外,其余每个卷积层后都跟一个ReLU激活层。
图4深度估计模块
2.4 图像映射
图像映射利用深度估计模块得到的深度图将输入图像映射到每个新视角位置。将位置为s'的输入图像L'(x,s')映射到位置为s的新视角,得到映射图像Ws'(x,s),这一过程可以表示为:
Ws'(x,s)=fw(L'(x,s'),D(x,s))=L'(x+(s-s')D(x,s),s'),(4)
其中fw表示图像映射过程。
由于有4幅输入图像,每幅输入图像被分别映射到所有新视角,所以每个新视角会有4幅映射图像,即形成4个初始合成光场,如图5所示。
图5 四个初始合成光场
2.5 光场融合重建模块
光场融合重建模块利用4个初始合成光场生成最终的高角度分辨率光场图像。与通常的直接融合所有映射图像或构建修复网络不同,本文通过评估4个初始合成光场的3DEPI来引导光场融合。光场融合重建步骤旨在从映射图像中获取正确的光场信息,这不仅要求每个视角图像保持正确的空间信息,还要保证各视角间的几何关系。Navarro等[17]在每个新视角位置对来自不同输入图像的映射图像的空间域进行卷积,确定不同映射图像的融合权重,以保留正确的空间信息。Jin等[16]考虑到不同视角之间的角度相关性,在对初始光场图像的空间域卷积之后又增加了对角度域的卷积。但是光场图像的空间信息和角度信息不是独立的两部分,它们之间存在密切的关联,这个关联体现在EPI中反映物体移动轨迹的斜线上。考虑空间信息和角度信息可以使重建光场保持更好的几何一致性,所以可以通过计算每个初始光场的EPI对最终光场的EPI的贡献来融合初始光场,而3DEPI比EPI多了一维空间信息,有助于重建光场保持更好的细节信息,所以最终通过融合4个初始合成光场的3DEPI来重建光场图像。
光场融合重建模块首先对4个初始合成光场进行水平3DEPI融合重建和垂直3DEPI融合重建,再将水平重建结果和垂直重建结果进行混合重建,得到最终的光场图像。这一过程可以表示为:
L̂(x,s)=fb(fh(Ws'(x,s)),fv(Ws'(x,s))),(5)
其中:Ws'(x,s)表示映射图像,即初始合成光场;fh表示水平3DEPI融合重建,fv表示垂直3DEPI融合重建,fb表示水平垂直混合重建。对4个初始合成光场的角度坐标为t=1的子孔径图像分别堆叠,得到如图6所示的4个水平3DEPI。将这4个水平3DEPI分别输入3DEPI评估网络,计算出各自对重建光场图像的角度坐标为t=1的水平3DEPI的贡献,得到它们的融合权重,并进行加权融合,完成角度坐标为t=1的水平重建。同理,对其余的水平3DEPI进行融合,得到水平3DEPI融合重建的光场图像h(x,s);对垂直3DEPI执行上述操作,得到垂直3DEPI融合重建的光场图像v(x,s)。最后,将h(x,s)和v(x,s)输入2个3D卷积层进行混合重建,得到最终的重建光场图像。其中,2个3D卷积层的卷积核尺寸分别为(5,3,3)和(3,3,3),步长分别为(4,1,1)和(1,1,1)。
图6 4个初始合成光场的角度坐标t=1时的水平3DEPI
在每个新视角位置,若直接对4幅映射图像进行融合,那么每个像素点只有一个评价值,且只在空间域进行融合权重的计算。本文提出的3DEPI融合方法通过水平重建和垂直重建,使每个像素点有两个评价值,可以更好地保持细节信息,并且结合空间域和角度域来计算融合权重,有利于维持光场图像的几何一致性。
受Wu等[23]的启发,3DEPI评估网络使用带跳跃连接的编码器-解码器结构,如图7所示。编码器由3个卷积-池化层组成,每一个池化层都将图像的分辨率降为原来的二分之一。解码器由3个反卷积层组成,每个反卷积层都与对应的卷积层的高分辨率特征相连接,使解码器能够更好地捕捉细节信息。3DEPI评估网络的输入是角度维度为7的3DEPI,输出是对应的7个评分图。对于4个初始合成光场的角度坐标为t=1的水平3DEPI,分别进行计算评分后,每个视角的4幅映射图像都有对应的评分图。接着通过Soft⁃max函数将每个视角位置的4个评分图映射到[0,1]之间,得到4幅映射图像的融合权重,并进行加权融合。对其余的每组3DEPI都执行相同的操作。
图7三维EPI评估网络
2.6 损失函数
与Jin等[16]类似,本文提出的光场角度超分辨重建方法的损失函数l定义为:
其中ld为深度估计损失函数。因为真实的光场深度图很难获取,所以通过度量初始合成光场与真实光场之间的差异来优化深度图,并且通过惩罚空间梯度对深度图进行平滑约束。ld定义为:
其中:L(x,s)代表真实的高角度分辨率光场图像,∇xD(x,s)是深度图D(x,s)的空间梯度。lb为融合重建损失函数,用于度量重建光场图像与真实光场图像的相似度,定义为:
其中
为重建的高角度分辨率光场图像。
le为Jin等[16]提出的EPI梯度损失函数(EPIgradi⁃entloss),通过计算重建光场图像的EPI梯度和真实光场图像的EPI梯度之间的L1距离来保持光场图像的几何一致性,梯度在EPI的空间维度和角度维度上计算。le定义为:
其中:Ey,t(x,s)和Ex,s(y,t)分别表示真实光场的水平EPI和垂直EPI,Êy,t(x,s)和Êx,s(y,t)分别表示重建光场的水平EPI和垂直EPI,λ为le的权重,本文设置为1。
3 实验结果及分析
实验使用的训练集为HCInew[24]的20个光场图像,每个光场图像的角度分辨率为9×9,空间分辨率为512×512。针对角度分辨率为2×2的稀疏光场图像进行角度超分辨重建,生成角度分辨率为7×7的密集光场图像。在制作训练集时,将9×9光场周围一圈的视角剪裁掉,仅使用中间7×7的子孔径图像,并且每个子孔径图像的空间分辨率被随机剪裁为96×96,即使用7×7×96×96的光场图像作为密集光场图像。实验使用密集光场图像的4个角度坐标为(0,0),(0,6),(6,0),(6,6)的子孔径图像作为输入图像。
本文使用PyTorch框架,在NVIDIAGe⁃ForceRTX3050上对提出的模型进行训练。实验使用Adam优化器(β1=0.9,β2=0.999)来训练网络,初始学习率设置为0.0001,且每500个周期衰减0.5倍。
3.1 对比实验
为了初步验证本文方法是否能够提高光场角度超分辨重建的质量,在HCInew[24]的测试集上对本文的重建结果与Yun等[19]的重建结果进行比较,通过峰值信噪比(PeakSignaltoNoiseRatio,PSNR)与结构相似性(StructuralSimilari⁃ty,SSIM)来定量评估光场的重建质量。实验结果如表1所示,可以看出本文方法的重建结果的PSNR和SSIM都较高,说明该方法能够提高光场角度超分辨重建的质量。
表1光场角度超分辨重建结果的比较
为了进一步分析本文方法的有效性及适用场景,选取lf-syn[14],RCA-LF[11],LFASR[16]3种方法进行对比实验。在对比实验中,除了RCA-LF[11],其他方法都是基于深度信息的重建方法。公平起见,各个方法均使用相同的数据集重新训练,且这些方法均使用各自论文提供的代码和训练模型。对比实验分别在合成光场图像和真实光场图像上进行。
3.1.1合成光场图像
对于合成光场图像,实验使用HCInew[24]中的bedroom,bicycle,herbs,dishes和HCIold[25]中的Buddha,Mona来评估各个方法的重建结果。所有测试子孔径图像在评估时都被剪裁掉四周的22pixels。图8展示了各方法在场景bedroom,bicycle上的角度超分辨重建结果的中心视角图像及其局部放大,也展示了局部放大部分的中心水平EPI。从图中可以看出,lf-syn[14]的重建结果整体较为模糊,主要是因为该方法仅用相邻的子孔径图像来生成中间图像,利用的光场信息较少。该方法还十分耗时,重建一个场景大概需要3h。RCA-LF[11]没有利用深度信息,因此重建结果的整体性较差,如图8(b)中EPI的斜线有较多的错误。LFASR[16]通过EPI损失函数约束重建结果的几何一致性,重建结果的整体性更好,但是一些复杂的纹理部分会出现模糊。本文提出的角度超分辨方法在水平方向和垂直方向分别对3DEPI进行整体融合,能够更好地保持纹理细节信息,且重建光场的几何一致性较好。表2从定量角度展示了各方法的重建结果,可以看出,本文方法在大部分场景下表现出更好的性能。
图8合成光场图像角度超分辨重建结果
表2合成光场图像上角度超分辨重建结果的比较
3.1.2 真实光场图像
对于真实光场图像,实验选取StanfordLy⁃troLightField[26]的Bikes和Kalantari等[14]的Rock和IMG_1528_eslf。在制作测试集时,先将这些光场的子孔径图像尺寸统一为540×360,为了更好地分析结果,所有测试光场的子孔径图像在评估时都被剪裁掉四周的22pixel。图9展示了各方法在场景bikes_20_eslf,IMG_1528_eslf上的角度超分辨重建结果的中心视角图像及其局部放大,也展示了局部放大部分的中心水平EPI。真实光场图像往往有着更复杂的遮挡关系,这更加考验重建方法对深度关系的计算。lf-syn[14]在深度估计阶段是手动提取特征,生成的深度图不精确,重建场景有很多重影。RCA-LF[11]忽略几何信息,直接对角度维度进行上采样,导致遮挡边缘出现模糊。相比于LFASR[16],本文方法从水平、垂直、对角方向分别提取视差特征,一定程度上提高了深度图的精度,在主观视觉上表现出更好的遮挡关系。表3展示了各方法重建结果的PSNR和SSIM,可以看出,本文方法在真实光场图像上的重建效果优于其他方法。
图9真实光场图像的角度超分辨重建结果
表3真实光场图像上角度超分辨重建结果的比较
3.2 消融实验
为了验证水平3DEPI融合重建分支和垂直3DEPI融合重建分支的组合能否充分利用光场的高维信息,进而提高重建光场图像的质量,对这两个分支进行了消融实验,其他部分保持不变。消融实验(1):只保留水平3DEPI融合重建分支;消融实验(2):只保留垂直3DEPI融合重建分支。实验结果如表4所示,只进行水平重建或垂直重建时的效果比较接近,这表明水平方向上的三维信息和垂直方向上的三维信息同等重要。本文方法将两者组合起来,充分利用两个方向上的高维信息,重建效果比单独使用水平重建分支或单独使用垂直重建分支的效果好。
为了验证深度估计模块按不同视差方向分别提取特征能够有效地提高深度图的精度,还设计了消融实验(3),即去掉特征提取部分,直接将输入图像输入深度估计网络,深度估计结果如表4所示。从表4可以看出,去掉特征提取部分后的重建效果比单分支融合重建还差,证明了按视差方向进行特征提取有利于提高深度估计的准确性,进而提高光场图像的重建质量。
表 4 消融实验的角度超分辨重建结果
3.3 光场应用
重建光场具有高角度分辨率,包含更多的场景信息,可以进行深度估计、重聚焦等光场应用。这里采用Epinet[22]的方法,利用本文方法的重建结果对光场图像进行深度估计,结果如图10所示。从图中可以看出,利用本文的重建结果能够估计出场景的深度图,且边缘部分能够保持清晰的结构。
图10利用本文重建结果预测的深度图
4 结论
本文针对利用稀疏光场图像重建密集光场图像的问题,提出了融合3DEPI的光场角度超分辨重建方法。该方法通过对输入图像提取不同方向的视差特征,有效地提高了深度估计的准确性,用生成的深度图将输入图像映射到新视角位置,形成初始合成光场,最后从水平方向和垂直方向分别对初始合成光场的3DEPI进行加权融合,再将两个方向的融合结果进行混合重建,得到最终的高质量重建光场图像。
本文方法适用于用微透镜阵列光场相机采样的大基线稀疏光场图像,可以提高光场角度超分辨重建的质量,在合成光场数据集和真实光场数据集上的重建效果均得到了提高,PSNR值的提升幅度最高达1.99%,更好地保持了重建光场图像的细节信息及几何一致性,在遮挡区域展现出更好的重建效果。但是,光场图像的采样方式不止一种,对于用相机阵列采样的光场图像,其各视角之间的基线会更宽,本文方法的重建质量就较低。未来会继续深入探索光场图像包含的丰富信息,优化本文方法,使该方法可以适用于相机阵列采样的光场图像。
文章来源:光学 精密工程(第31卷 第21期)
作者:陈纯毅,范晓辉,胡小娟,于海洋(长春理工大学计算机科学技术学院,吉林长春130022)文章来源:https://www.toymoban.com/news/detail-859837.html
声明:转载此文目的在于传递更多信息,仅供读者学习、交流之目的。文章版权归原作者所有,如有侵权,请联系删除。文章来源地址https://www.toymoban.com/news/detail-859837.html
到了这里,关于【探讨】融合 3D 对极平面图像的光场角度超分辨重建的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!