【论文阅读】Dynamic Split Computing for Efficient Deep Edge Intelligence

这篇具有很好参考价值的文章主要介绍了【论文阅读】Dynamic Split Computing for Efficient Deep Edge Intelligence。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

论文信息

作者:Arian Bakhtiarnia, Nemanja Milošević, Qi Zhang, Dragana Bajović, Alexandros Iosifidis

发表会议:

  • ICML 2022 DyNN Workshop
  • ICASSP 2023

发表单位:

∗DIGIT, Department of Electrical and Computer Engineering, Aarhus University, Denmark.

†Faculty of Sciences, University of Novi Sad, Serbia.

‡Faculty of Technical Sciences, University of Novi Sad, Serbia.

开源工作:MaLeCi / DynamicSplitComputing · GitLab (au.dk)

引用格式:

@INPROCEEDINGS{10096914,
  author={Bakhtiarnia, Arian and Milošević, Nemanja and Zhang, Qi and Bajović, Dragana and Iosifidis, Alexandros},
  booktitle={ICASSP 2023 - 2023 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)}, 
  title={Dynamic Split Computing for Efficient Deep EDGE Intelligence}, 
  year={2023},
  volume={},
  number={},
  pages={1-5},
  doi={10.1109/ICASSP49357.2023.10096914}}

ABS

ABS Tips
【论文阅读】Dynamic Split Computing for Efficient Deep Edge Intelligence bg: 由于计算机资源有限,在物联网和移动设备上部署深度神经网络是一项具有挑战的任务
motivation:要求苛刻的任务通常卸载到能加速推理的边缘服务器,但是会带来 1)通信成本和隐私问题。2)且还没有使用终端设备的计算能力。
method:提出动态拆分计算,根据通信信道的状态选取最佳拆分点
result:在数据速率和服务器负载随时间变化的边缘计算环境下实现更快的推理

INTRO

BG:IoT和深度学习结合应用于各种领域,例如医疗健康,智慧家居,运输和工业。但是深度学习模型含有巨大参数量(百万级/亿万级),部署于资源受限的设备很困难。

现有方案之一:卸载计算到在边缘服务器或者云服务器,隐含问题的如下:

  1. 模型输入巨大,卸载计算到服务器将消耗带宽、能量,造成延迟
  2. IoT设备仍含有一些计算能力没有被用上
  3. 数据涉及健康数据或者人类的影音流会触及隐私问题,额外处理数据造成另外的计算量

拆分计算(Split computing): 将深度学习模型拆分成两部分(头+尾),头部模型在边缘设备运行,将头部的输出结果(中间表示)转换到服务器处理,通过服务器获取尾部模型的最终输出结果。

拆分计算相对于完全卸载的另一个好处是,它可以用作隐私保护技术,因为传输的是中间表示而不是实际输入,并且原始输入不能轻易地从中间表示重建。

ref: [6] Jeong, H.-J., Jeong, I., Lee, H.-J., and Moon, S.-M. Computation offloading for machine learning web apps in the edge server environment. In 2018 IEEE 38th International Conference on Distributed Computing Systems (ICDCS), pp. 1492–1499, 2018. doi: 10.1109/ICDCS. 2018.00154.

拆分计算可以与早退结合,当转换中间表示到服务器比想象中更久的时候。

ref: [7]Scardapane, S., Scarpiniti, M., Baccarelli, E., and Uncini, A. Why should we add early exits to neural networks? Cognitive Computation, 12(5):954–966, Sep 2020. ISSN 1866- 9964. doi: 10.1007/s12559-020-09734-4. URL https: //doi.org/10.1007/s12559-020-09734-4.

[5]Matsubara, Y., Levorato, M., and Restuccia, F. Split computing and early exiting for deep learning applications: Survey and research challenges. arXiv:2103.04505, 2021.

【论文阅读】Dynamic Split Computing for Efficient Deep Edge Intelligence【论文阅读】Dynamic Split Computing for Efficient Deep Edge Intelligence

(b)全卸载; (c)拆分计算

拆分计算旨在减少通信成本,深度学习的自然瓶颈即在中间表示的大小小于输入大小就可以用作为拆分点。本文发现EfficientNet等最先进的模型具有许多自然瓶颈,因此提出一种动态拆分计算的方法,可以基于输入和通道状态自动化动态地选取最佳的拆分点。

【论文阅读】Dynamic Split Computing for Efficient Deep Edge Intelligence

动态拆分(dynamic split computing)优点:

  • 不改变底层深度学习模型结构,是一种即插即用方法,可以在没有关于正在使用的特定深度学习模型的领域知识的情况下使用。

  • 作为一种补充的高效推理方法,可以于其他方法结合使用,比如模型压缩方法(剪枝,量化)以及动态推理方法(早退)。

相关工作

已经有工作探索过动态决定拆分点地可行性,但是这些方法没有考虑瓶颈处,且尝试将所有层平等得看作是拆分点,增加了不必要的开销。

另外,使用瓶颈减少从中间表示推理源数据的可能性,这对于隐私保护很重要。

DYNAMIC SPLIT COMPUTING

本文方法的目标是通过通信信道状态和批大小动态检测给定 DNN 的最佳拆分点优化端到端推理时间。

  1. 查找自然瓶颈

    对于每个层的压缩比计算为 c l = ∣ h l ∣ / ∣ x ∣ c_l=|h_l|/|x| cl=hl∣/∣x(x代表输入大小,h代表中间表示大小)

    自然瓶颈为: c l < 1 c_l<1 cl<1

  2. 压缩瓶颈

    不是所有的自然瓶颈都是有用的,只有某个自然瓶颈的压缩比小于先前瓶颈的压缩比的时候,此瓶颈才是有用的即压缩瓶颈。
    【论文阅读】Dynamic Split Computing for Efficient Deep Edge Intelligence

  3. 动态拆分计算 基于公式在每个时间步长(数据速率和批大小) 找到最佳拆分点,并切换到该配置。

    动态拆分计算包含无卸载和拆分计算,根据需要切换。如果要求隐私保护,可以定义l 为0-(L-1)

    【论文阅读】Dynamic Split Computing for Efficient Deep Edge Intelligence

    其中,对于特定batch输入的端到端推理时间计算如下:D为数据大小,r为数据速率。

【论文阅读】Dynamic Split Computing for Efficient Deep Edge Intelligence

疑问:压缩瓶颈就等于是从前往后最小压缩比的瓶颈?不就代表只有1个嘛?那么还需要去选取最佳拆分点吗?

  1. 衡量动态拆分计算在每种特定情况下的增益

    每个步长 i i i的状态 S S S ( B i , r i ) (B_i,r_i) (Bi,ri)

    动态拆分计算对端到端推理时间的相对平均增益为:

【论文阅读】Dynamic Split Computing for Efficient Deep Edge Intelligence

实验及其结果

实验设置

models:EfficientNetV2的7种变体、EfficientNetV1的7种变体

devices:边缘服务器使用2080 Ti GPU;资源受限的设备使用相同的GPU,降频为300MHz。

(降频GPU的推理速度为2.37 TFLOPS,类似于Nvidia Jetson TX2和Xavier系列,其范围从1.33到5.25 TFLOPS。)

实验

  1. 分析每个模型架构的压缩的自然瓶颈

    这些架构有15-68个自然瓶颈,其中3/4都是压缩瓶颈。

  2. 分析每个模型的最佳拆分点

    根据不同状态(data rate, batch size)的推理时间分析,最小推理时间的压缩瓶颈为最佳拆分点。

    模型 结果图
    EfficientNetV1-B4 【论文阅读】Dynamic Split Computing for Efficient Deep Edge Intelligence
    EfficientNetV2-S 【论文阅读】Dynamic Split Computing for Efficient Deep Edge Intelligence
    EfficientNetV2-L 【论文阅读】Dynamic Split Computing for Efficient Deep Edge Intelligence

    观察图表得出信息:每个压缩瓶颈对应多个状态下的最佳拆分点

    因此,根据通信信道的状态在拆分点之间动态切换(以及无卸载)可以提高推理速度。

  3. 动态拆分计算方法对于端到端推理时间的增益

【论文阅读】Dynamic Split Computing for Efficient Deep Edge Intelligence

动态拆分计算方法相对比其他方法(静态拆分计算方法/无卸载方法),在大多数情况下,推理速度平均会提高 20% 到 30%,而无需任何训练或影响准确性。

总结

本文展示了动态拆分计算在推理时间提高上同时超过了无卸载和固定位置的拆分计算方法。

另外,相对于全卸载方法,动态拆分计算通过运用终端设备的计算性能实现减少服务器的负载。

最后,通过转换中间表示信息而不是输入,动态拆分计算方法克服了全卸载所面对的隐私问题。文章来源地址https://www.toymoban.com/news/detail-513626.html

到了这里,关于【论文阅读】Dynamic Split Computing for Efficient Deep Edge Intelligence的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • [论文阅读]Coordinate Attention for Efficient Mobile Network Design

      最近关于移动网络设计的研究已经证明了通道注意力(例如, the Squeeze-and-Excitation attention)对于提高模型的性能有显著的效果,但它们通常忽略了位置信息,而位置信息对于生成空间选择性注意图非常重要。在本文中,我们提出了一种新的移动网络注意力机制,将位置信息

    2024年02月07日
    浏览(32)
  • 论文阅读:TinySAM: Pushing the Envelope for Efficient Segment Anything Model-文章内容阅读

    论文标题: TinySAM: 极致高效的分割一切模型 论文地址:https://arxiv.org/pdf/2312.13789.pdf 代码地址(pytorch):https://github.com/xinghaochen/TinySAM 详细论文解读:TinySAM:极致高效压缩,手机就能实时跑的分割一切模型 - 知乎 (zhihu.com)  目录 文章内容解析  概括 文章的观点 技术创新解

    2024年01月17日
    浏览(35)
  • Deep Frequency Filtering for Domain Generalization论文阅读笔记

    这是CVPR2023的一篇论文,讲的是在频域做domain generalization,找到频域中generalizable的分量enhance它,suppress那些影响generalization的分量 DG是一个研究模型泛化性的领域,尝试通过各自方法使得模型在未见过的测试集上有良好的泛化性。 intro部分指出,低频分量更好泛化,而高频分

    2024年02月07日
    浏览(26)
  • 论文阅读 | Restormer: Efficient Transformer for High-Resolution Image Restoration

    前言:CVPR2022oral 用transformer应用到low-level任务 low-level task 如deblurringdenoisingdehazing等任务多是基于CNN做的,这样的局限性有二: 第一是卷积操作的感受野受限,很难建立起全局依赖, 第二就是卷积操作的卷积核初始化是固定的,而attention的设计可以通过像素之间的关系自适

    2024年02月05日
    浏览(32)
  • 【论文阅读笔记】Prompt Tuning for Parameter-efficient Medical Image Segmentation

    Fischer M, Bartler A, Yang B. Prompt tuning for parameter-efficient medical image segmentation[J]. Medical Image Analysis, 2024, 91: 103024. 【开源】 【核心思想】 本文的核心思想是提出了一种用于医学图像分割的参数高效的提示调整(Prompt Tuning)方法。这种方法基于预训练的神经网络,通过插入可学习的

    2024年01月17日
    浏览(39)
  • 材料论文阅读/中文记录:Scaling deep learning for materials discovery

    Merchant A, Batzner S, Schoenholz S S, et al. Scaling deep learning for materials discovery[J]. Nature, 2023: 1-6. 全文速览 这篇文章主要讲了一种名为 GNoME 的 材料发现框架 。该框架利用机器学习和高通量计算方法,通过预测材料的稳定性和性质,加速新材料的发现。文章介绍了GNoME的 工作原理和方

    2024年02月02日
    浏览(46)
  • 论文阅读【14】HDLTex: Hierarchical Deep Learning for Text Classification

    论文十问十答: Q1论文试图解决什么问题? 多标签文本分类问题 Q2这是否是一个新的问题? 不是 Q3这篇文章要验证一个什么科学假设? 因为文本标签越多,分类就越难,所以就将文本类型进行分层分类,这样就可以加大文本分类的准确度。 Q4有哪些相关研究?如何归类?谁

    2023年04月09日
    浏览(27)
  • 论文阅读《Efficient and Explicit Modelling of Image Hierarchies for Image Restoration》

    论文地址:https://openaccess.thecvf.com/content/CVPR2023/papers/Li_Efficient_and_Explicit_Modelling_of_Image_Hierarchies_for_Image_Restoration_CVPR_2023_paper.pdf 源码地址:https://github.com/ofsoundof/GRL-Image-Restoration   图像复原任务旨在从低分辨率的图像(模糊,子采样,噪声污染,JPEG压缩)中恢复高质量的图

    2024年02月03日
    浏览(34)
  • 【论文阅读】Informer Beyond Efficient Transformer for Long Sequence Time-Series Forecasting

    原始题目:Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting 中文翻译:Informer:超越有效变换器进行长序列时间序列预测 发表时间:2021-05-18 平台:Proceedings of the AAAI Conference on Artificial Intelligence 文章链接:https://ojs.aaai.org/index.php/AAAI/article/view/17325 开源代码:htt

    2024年03月12日
    浏览(31)
  • 【论文阅读】Deep learning for unmanned aerial vehicles detection: A review.

    Al-lQubaydhi, N., Alenezi, A., Alanazi, T., Senyor, A., Alanezi, N., Alotaibi, B., Alotaibi, M., Razaque, A., Hariri, S. (2024). Deep learning for unmanned aerial vehicles detection: A review. Computer Science Review, 51(100614), 100614. https://doi.org/10.1016/j.cosrev.2023.100614 深度学习用于无人机检测:综述。 摘要: 无人机作为一种新

    2024年01月16日
    浏览(31)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包