论文阅读:DLME = Deep Local-flatness Manifold Embedding

这篇具有很好参考价值的文章主要介绍了论文阅读:DLME = Deep Local-flatness Manifold Embedding。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Author: Zelin Zang, Siyuan Li, Di Wu and Stan Z Li.
1-4: Westlake University

摘要

流形学习(ML, Manifold learning)旨在从高维数据中识别低维结构和嵌入,然而我们发现现有工作在采样不足的现实数据集上效果不佳。一般的ML方法对数据结构进行建模然后构造一个低维embedding,但是采样不足的现实数据会导致局部关联性/连续性较差,或由于优化目标不合适导致结构失真、embedding存在缺陷。为解决该问题我们提出了深度的、局部平坦的、流形embedding(DLME):通过减少失真来获得可靠的embedding。该方法通过数据增强构建语义流形、借助局部平坦假设克服结构失真问题,并设计了一个新的损失,在数学上证明了局部平坦假设能够得到理想的embedding。实验表明我们的方法在下游分类聚类任务中优于SOTA方法,也优于对比学习方法。

1. Introduction

论文阅读:DLME = Deep Local-flatness Manifold Embedding
图1:我们的DLME包括了结构建模网络 f θ f_\theta fθ和低维嵌入网络 g ϕ g_\phi gϕ。前者将输入数据映射到可以描述数据连接的结构空间中,后者再利用局部平坦特性将卷曲的流形映射到平面嵌入空间中,以对下游任务友好并提升可辨别能力。

我们将目前的流形学习方法的问题总结为:

  • D1: 对流形嵌入的约束不足
    专注于局部结构的关系容易产生扭曲失真的嵌入,从而影响下游任务的执行,如图2(D2)和图6所示。由于对潜在特征空间的约束不足,即使是最先进的ML方法在下游任务上也会失去性能,如对比学习。

  • D2: 流形结构失真
    我们将现有方法在现实数据集上的问题归因于结构失真:现有ML方法使用输入空间中的距离来构建局部近邻图,据此来定义可以保留局部结构的无监督损失。然而,该方法引入了一个严格的假设,即局部一定存在短程连接,使得距离度量可以描述数据的近邻关系。这通常只有数据密集时才有可能满足,而在真实数据集中并不一定能得到保证。

  • D3: 局部嵌入崩溃
    最近,对比学习利用数据增广之间的相似性取得了好的性能并得到广泛关注,然而它在流形学习中遇到的了更严重的困难,因为该方法需要大量的数据进行预训练,对比学习无平滑损失导致模型学习到的特征容易局部崩溃,需要大量的数据来学习有效的知识,如图2(D3)所示。

论文阅读:DLME = Deep Local-flatness Manifold Embedding
图2:传统ML和CL方法的问题。(D1):局部视角和一阶相似性约束 → \rightarrow 导致约束不足的流形嵌入;(D2):现实数据的超高维度导致数据分布稀疏/采样不良 → \rightarrow 打破流形的局部连通性 → \rightarrow 导致结构失真;(D3):对比学习非平滑的损失函数 → \rightarrow 导致局部崩溃的嵌入 → \rightarrow 对下游任务不友好。

在图1中,我们希望更好的限制潜在特征空间以防止出现结构失真问题,同时希望出现类似对比学习方法的崩溃嵌入问题,于是提出了一个两步走的模型结构:1)通过测量每个样本对的关系来获得流形的图结构,2)将得到的结构映射到低维平面特征空间中。具体来说,我们首先提出一种新的局部平坦假设,添加了二阶流形曲率约束来获得更合理的潜在空间(解决D1);然后我们设计了一个与数据增广兼容的深度学习框架使得方法可以更好的训练并scale到更大数据集上(解决D2);最后,我们根据局部平坦假设设计了一个与数据增广兼容的平滑损失函数,该函数基于长尾 t-分布来指导网络学习。我们进一步在数学上说明了为什么DLME不同与传统对比损失以及DLME为什么可以获得平面的局部嵌入。

2 Related work

3 Method

3.1 问题描述和局部平坦假设

定义1:流形学习
M \mathcal M M为欧式空间 R d \R^d Rd中的d维嵌入, f : M → R D f:\mathcal M\rightarrow \R^D f:MRD为可微的嵌入映射,流形学习的目的是从足够的采样观测数据 X = { x i } i = 1 N X=\{x_i\}_{i=1}^N X={xi}i=1N中找到 Z = { z i } i = 1 N , z i ∈ M Z=\{z_i\}_{i=1}^N, z_i\in\mathcal M Z={zi}i=1N,ziM。在我们的方法中,利用神经网络 f θ f_\theta fθ学习该映射 R D → R d \R^D\rightarrow \R^d RDRd

每个ML方法都是根据特定的流形假设设计一个损失函数,将观察到的数据 x i x_i xi映射到内在流形 z i z_i zi,例如,LLE假设局部流形是线性的,而UMAP假设局部流形是均匀的。对比之下,我们提出了潜在空间中的局部平坦假设。

假设1: 局部平坦假设(LFA)
我们希望每个数据点与其邻居位于局部的平坦平面上,我们引入了Gauss-Bonnet定理,使用平均曲率 K ‾ M \overline{K}_{\mathcal M} KM来量化高维流形的平坦程度:
论文阅读:DLME = Deep Local-flatness Manifold Embedding
其中, X ( M ) \mathcal X(\mathcal M) X(M)为欧拉特征(Euler Characteristic), H 1 \mathrm H_1 H1为当前数据点的1-近邻, θ ( x j , x i , x j + 1 ) \theta(x_j,x_i,x_{j+1}) θ(xj,xi,xj+1)为这三个点的角度。

从一阶约束到二阶(曲率)约束
传统方法设计保持距离(如LLE)或保持相似性(如UMAP)的目标函数,希望在映射过程中保证数据的一阶结构关系。我们引入了二阶曲率约束来解决结构失真问题。但是二阶损失的计算复杂度十分昂贵,我们因此需要利用局部平坦假设来最小化流形embedding的曲率。这种想法类似于压缩感知中的先验稀疏性——局部平坦假设期望不受约束的局部曲率信息是稀疏的

局部平坦假设的作用
对于单个流形:局部平坦假设减少了不合适的嵌入空间中的卷曲(如图6)从而避免了嵌入过程的失真。
对于多个流形:局部平坦假设可以简化多个流形之间的判别关系,在避免崩溃嵌入的同时减少了不同流形之间重叠的可能性,使下游任务可以通过简单的线性模型完成。

3.2 DLME框架

DLME的损失是根据 A i j A_{ij} Aij和从头训练的神经网络空间中的点对相似性计算的,如果来自相同数据的增广,则 A i j = 1 A_{ij}=1 Aij=1,否则 A i j = 0 A_{ij}=0 Aij=0

利用数据增广解决结构失真。利用对比学习的思想,DLME通过数据增强提供的先验知识解决由于采样点稀疏导致的结构失真问题:由于数据增强尽可能少地改变原始数据的语义,因此当原始数据的局部连接中断时,通过数据增强可以生成孤立数据点的近邻数据,从而保证了局部连接

DLME的前向过程
论文阅读:DLME = Deep Local-flatness Manifold Embedding
其中 x i x_i xi x j x_j xj采样自不同的随机图像增广, d y d_y dy d z d_z dz分别为嵌入维度。

DLME的损失函数
论文阅读:DLME = Deep Local-flatness Manifold Embedding
其中 d i j y , d i j z d_{ij}^y, d_{ij}^z dijy,dijz 为处于嵌入空间y和z中点对 ( i , j ) (i,j) (i,j)的距离度量,双路差异度量 D ( p , q ) \mathcal D(p,q) D(p,q)定义了两个潜在空间的不相似性
D ( p , q ) = p log ⁡ q + ( 1 − p ) log ⁡ ( 1 − q ) \mathcal D(p,q)=p \log q + (1-p)\log (1-q) D(p,q)=plogq+(1p)log(1q)
这是连续版本的交叉熵,用于引导两个潜在空间的点对相似性以互相匹配。

由于潜在空间的维度不同,直接计算两个空间的距离存在维度不匹配的障碍。我们因此采用t-分布作为核函数来计算点对之间的相似性,从而描述数据的分布。t-分布中的自由度 v y , v z \mathcal v_y,\mathcal v_z vy,vz是一种用于增强嵌入空间平坦度的必要设置:
论文阅读:DLME = Deep Local-flatness Manifold Embedding
其中Gam表示Gamma函数,自由度 v \mathcal v v控制核函数的形状。

最后, R ( A i j ) R(A_{ij}) R(Aij)将近邻信息整合到 A i j A_{ij} Aij中:
R ( A i j ) = 1 + ( α − 1 ) A i j R(A_{ij})=1+(\alpha -1)A_{ij} R(Aij)=1+(α1)Aij
即,当点j是点i的近邻时,在结构空间中的距离将被减少到 α ∈ [ 0 , 1 ] \alpha \in [0,1] α[0,1],否则设置为1,这两个点的相似度将会增加。

3.3 通过更平滑的对比学习框架来对抗局部崩溃

传统自监督对比学习框架可以写为:
L C = − E x i , x j [ A i j log ⁡ κ ( d i j z ) + ( 1 − A i j ) log ⁡ ( 1 − κ ( d i j z ) ) ] L_C=-\mathbb E_{x_i,x_j}[A_{ij}\log \kappa (d_{ij}^z)+(1-A_{ij})\log \left(1-\kappa (d_{ij}^z)\right )] LC=Exi,xj[Aijlogκ(dijz)+(1Aij)log(1κ(dijz))]
该对比学习目标是不平滑的,因为点对的学习目标随着 A i j A_{ij} Aij的变换在 log ⁡ κ \log \kappa logκ log ⁡ ( 1 − κ ) \log (1-\kappa) log(1κ)之间切换。DLME降低折衷了学习过程,避免了梯度中的尖锐冲突。为了比较DLME损失和CL损失之间的差异,我们假设 g φ g_φ gφ满足K-Lipschitz连续性,然后:
d i j z = k ∗ d i j y , k ∗ ∈ [ 1 / K , K ] d_{ij}^z=k^*d_{ij}^y, k^*\in [1/K,K] dijz=kdijy,k[1/K,K] 其中 k ∗ k^* k为Lipschitz常量。那么CL损失和DLME损失的差异为:
∣ L D − L c ∣ = E x i , x j [ A i j − κ ( ( 1 + ( α − 1 ) A i j k ∗ d i j z ) log ⁡ ( 1 κ ( d i j z ) − 1 ) ] |L_D-L_c|=\mathbb E_{x_i,x_j}\left[A_{ij}-\kappa\left ((1+(\alpha-1)A_{ij}k^*d_{ij}^z\right )\log(\frac{1}{\kappa(d_{ij}^z)}-1) \right] LDLc=Exi,xj[Aijκ((1+(α1)Aijkdijz)log(κ(dijz)11)]

分析上式,当 i i i j j j为近邻, A i j = 1 A_{ij}=1 Aij=1,再当 α → 0 \alpha\rightarrow0 α0时, α k ∗ d i j z → 0 ,   1 − κ ( α k ∗ d i j z ) → 0 \alpha k^*d_{ij}^z\rightarrow 0, \ 1-\kappa(\alpha k^*d_{ij}^z)\rightarrow 0 αkdijz0, 1κ(αkdijz)0,于是 ∣ L D − L c ∣ → 0 |L_D-L_c|\rightarrow 0 LDLc0,而当 α > 0 \alpha > 0 α>0时,DLME的最优解保留了关于embedding结构 d i j d_{ij} dij的余数,表明我们的损失不会最大化当前点和近邻点的相似性,我们的损失相比对比损失更平滑,可以保留embedding空间中的结构(只会有轻微崩溃),而不会把近邻点都压缩到一起变成崩溃embedding空间

3.4 为何DLME导致局部平坦面

本节讨论DLME如何优化局部曲率以变得更平坦。我们已经讨论了如何对结构建模并在利用对比学习防止局部连接不良的同时利用平滑损失防止崩溃解,但是流形依然是卷曲的,可能导致不同流形之间的重叠和变形,使得下游的线性模型性能下降。我们因此需要获得尽可能平坦的embedding空间,我们的损失可以控制embedding空间的平坦程度。这是因为损失函数中的基于长尾t-分布的核函数,我们在两个潜在空间中应用不同的自由度参数,自由度 v y \mathcal v_y vy v z \mathcal v_z vz的差异形成了不同的核函数 κ ( d , v y ) \kappa(d,\mathcal v_y) κ(d,vy) κ ( d , v z ) \kappa(d,\mathcal v_z) κ(d,vz)

论文阅读:DLME = Deep Local-flatness Manifold Embedding
图4:推拉性质。如果 d y < d p d^y<d_p dy<dp,那么 d z + < d y d^{z+}<d^y dz+<dy(黄色线拉近d),如果 d y > d p d^y>d_p dy>dp,那么 d z + > d y d^{z+}>d^y dz+>dy(粉色线拉远d)

引理1:推拉性质
v y , v z v^y,v^z vy,vz时,令 d z + = κ − 1 ( κ ( d , v y ) , v z ) d^{z+}=\kappa^{-1}(\kappa(d,\mathcal v^y),v^z) dz+=κ1(κ(d,vy),vz)为最优化损失函数的解,那么存在 d p d_p dp使得 ( d y − d p ) ( d z + − d y ) > 0 (d^y-d_p)(d^{z+}-d^y)>0 (dydp)(dz+dy)>0

DLME的伪代码:
论文阅读:DLME = Deep Local-flatness Manifold Embedding
先将原始和增广数据集随机采样,点对经过两个网络,计算在第一个网络下和第二个网络下embedding后的距离,再根据距离计算计算相似度,得到的结果用于损失函数的优化。

4. 实验

论文阅读:DLME = Deep Local-flatness Manifold Embedding
图5:(左)标签识别概率与排序距离的条形图。条形图的左端越高,表示最近邻样本的相同标签的概率越高,这意味着局部连通性得到了保证。(右)ML方法(UMAP)在四个图像数据集上的结果。复杂数据无法保证局部近邻连接导致失败。所提出的DLME方法在更复杂的CIFAR数据集上具有更好的嵌入结果。
论文阅读:DLME = Deep Local-flatness Manifold Embedding
图6:SwissRoll和StarFruit数据集上不同方法得到的平均局部曲率和散点图。这两个例子表明,DLME可以通过优化局部曲率来尽可能地得到合理的平坦embedding。

论文阅读:DLME = Deep Local-flatness Manifold Embedding
表1:在12个数据集上的效果,我们汇报了在下游线性分类和k-means聚类上的效果,下划线表示准确率高出最好的方法超过5%。

论文阅读:DLME = Deep Local-flatness Manifold Embedding
表2:我们也汇报了和对比学习方法的比较,许多对比学习方法得到的embedding产生了崩溃解以至于无法应用于下游的聚类任务。

论文阅读:DLME = Deep Local-flatness Manifold Embedding
图7:生物数据集、简单图像数据集和复杂图像数据集的可视化结果。画圈的部分标出了baseline方法的聚类互相重叠文章来源地址https://www.toymoban.com/news/detail-491419.html

到了这里,关于论文阅读:DLME = Deep Local-flatness Manifold Embedding的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Deep Frequency Filtering for Domain Generalization论文阅读笔记

    这是CVPR2023的一篇论文,讲的是在频域做domain generalization,找到频域中generalizable的分量enhance它,suppress那些影响generalization的分量 DG是一个研究模型泛化性的领域,尝试通过各自方法使得模型在未见过的测试集上有良好的泛化性。 intro部分指出,低频分量更好泛化,而高频分

    2024年02月07日
    浏览(39)
  • 【论文阅读】The Deep Learning Compiler: A Comprehensive Survey

    论文来源:Li M , Liu Y , Liu X ,et al.The Deep Learning Compiler: A Comprehensive Survey[J]. 2020.DOI:10.1109/TPDS.2020.3030548. 这是一篇关于深度学习编译器的综述类文章。 什么是深度学习编译器 深度学习(Deep Learning)编译器将深度学习框架描述的模型在各种硬件平台上生成有效的代码实现,其完

    2024年02月15日
    浏览(47)
  • 材料论文阅读/中文记录:Scaling deep learning for materials discovery

    Merchant A, Batzner S, Schoenholz S S, et al. Scaling deep learning for materials discovery[J]. Nature, 2023: 1-6. 全文速览 这篇文章主要讲了一种名为 GNoME 的 材料发现框架 。该框架利用机器学习和高通量计算方法,通过预测材料的稳定性和性质,加速新材料的发现。文章介绍了GNoME的 工作原理和方

    2024年02月02日
    浏览(61)
  • 论文阅读【14】HDLTex: Hierarchical Deep Learning for Text Classification

    论文十问十答: Q1论文试图解决什么问题? 多标签文本分类问题 Q2这是否是一个新的问题? 不是 Q3这篇文章要验证一个什么科学假设? 因为文本标签越多,分类就越难,所以就将文本类型进行分层分类,这样就可以加大文本分类的准确度。 Q4有哪些相关研究?如何归类?谁

    2023年04月09日
    浏览(39)
  • 论文阅读 Stepwise Feature Fusion: Local Guides Global

    我在找论文时发现,把自己的分割模型命名为ssformer的有两个:,一个论文SSformer: A Lightweight Transformer for Semantic Segmentation中提出的一种轻量级Transformer模型,结构如下 这个结构很简单,就是在用MLP层处理一下不同层的swin transformer block特征,然后融合。 这个没什么太多好说的

    2024年03月16日
    浏览(67)
  • 【论文阅读】Deep Instance Segmentation With Automotive Radar Detection Points

    基于汽车雷达检测点的深度 实例分割 一个区别: automotive radar  汽车雷达 : 分辨率低,点云稀疏,语义上模糊,不适合直接使用用于密集LiDAR点开发的方法  ; 返回的物体图像不如LIDAR精确,可以在雨,雪,雨夹雪,冰雹,雾,泥和尘土中返回; 在夜间和阴天条件下也比激

    2024年02月13日
    浏览(48)
  • 【论文阅读】Dynamic Split Computing for Efficient Deep Edge Intelligence

    作者:Arian Bakhtiarnia, Nemanja Milošević, Qi Zhang, Dragana Bajović, Alexandros Iosifidis 发表会议: ICML 2022 DyNN Workshop ICASSP 2023 发表单位: ∗DIGIT, Department of Electrical and Computer Engineering, Aarhus University, Denmark. †Faculty of Sciences, University of Novi Sad, Serbia. ‡Faculty of Technical Sciences, University of N

    2024年02月11日
    浏览(58)
  • Deep learning of free boundary and Stefan problems论文阅读复现

    在这项工作中,作者提出了一个基于物理信息神经网络的多网络模型,来解决一类一般的正和逆自由边界问题,称为Stefan问题。具体地说,用两个深度神经网络来近似未知解以及任何移动边界。作者提供了三个案例研究(一维一相Stefan问题,一维二相Stefan问题,二维一相Ste

    2024年02月08日
    浏览(45)
  • 【视频异常检测综述-论文阅读】Deep Video Anomaly Detection: Opportunities and Challenges

    来源:  Ren, Jing, et al. “Deep Video Anomaly Detection: Opportunities and Challenges.” 2021 International Conference on Data Mining Workshops (ICDMW), Dec. 2021. Crossref, https://doi.org/10.1109/icdmw53433.2021.00125. 文章连接:https://arxiv.org/abs/2110.05086 异常检测在各种研究环境中是一项热门而重要的任务,已经研究了

    2023年04月16日
    浏览(42)
  • 【论文阅读】Deep learning for unmanned aerial vehicles detection: A review.

    Al-lQubaydhi, N., Alenezi, A., Alanazi, T., Senyor, A., Alanezi, N., Alotaibi, B., Alotaibi, M., Razaque, A., Hariri, S. (2024). Deep learning for unmanned aerial vehicles detection: A review. Computer Science Review, 51(100614), 100614. https://doi.org/10.1016/j.cosrev.2023.100614 深度学习用于无人机检测:综述。 摘要: 无人机作为一种新

    2024年01月16日
    浏览(44)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包