AI芯片:神经网络研发加速器、神经网络压缩简化、通用芯片 CPU 加速、专用芯片 GPU 加速

这篇具有很好参考价值的文章主要介绍了AI芯片:神经网络研发加速器、神经网络压缩简化、通用芯片 CPU 加速、专用芯片 GPU 加速。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

 文章来源地址https://www.toymoban.com/news/detail-811527.html


神经网络研发加速器

神经网络编译器组成:编译器、图表示、图优化、计算优化、代码生成。

AI芯片:神经网络研发加速器、神经网络压缩简化、通用芯片 CPU 加速、专用芯片 GPU 加速,# 深度学习,人工智能,神经网络,深度学习

 

神经网络编译器

问题: 如何将高级别的神经网络模型有效转换为在多种硬件上运行的优化代码?

ONNX的角色:

  1. 统一格式:ONNX提供了一个标准化的格式来表示不同深度学习框架中的模型。它使模型可以在不同的框架和工具之间轻松转换,从而增强了模型的可移植性和互操作性。
  2. 模型交换:ONNX使得开发者可以选择最适合他们需求的工具和框架来训练模型,并且能够轻松地将这些模型转换为ONNX格式,用于部署。

神经网络编译器的角色:

  1. 优化和转换:神经网络编译器接收特定格式(如ONNX)的深度学习模型,并将其编译和优化以在特定硬件上运行。这包括转换模型为硬件特定的指令集,进行图优化、算子融合等。
  2. 跨平台部署:编译器使得模型不仅可以在不同的框架中移植,还可以在不同的硬件平台上高效运行,如CPU、GPU、FPGA或专用AI加速器。

协同工作流程:

  1. 模型训练:
  • 开始于:深度学习模型首先在特定的框架(如TensorFlow, PyTorch, MXNet等)中进行训练。
  • 输出:训练完成后的模型通常以该框架的特定格式存储。
  1. 模型转换(使用ONNX):
  • 转换工具:使用ONNX提供的工具将模型从原始框架转换成ONNX格式。这一步骤涉及将模型的结构和权重导出到ONNX定义的统一格式中。
  • 输出:转换后的模型现在在一个标准化的ONNX格式中,使得它可以跨不同的深度学习框架和工具共享。
  1. 模型优化和编译(使用神经网络编译器):
  • 编译器输入:编译器接收ONNX格式的模型。
  • 优化过程:编译器对模型进行一系列优化,如算子融合、图优化、消除冗余计算等,以提高模型在目标硬件上的运行效率。
  • 硬件特定优化:编译器还会针对特定的目标硬件(如CPU, GPU, FPGA等)进行优化,生成适合该硬件的低级代码。
  1. 部署和执行:
  • 部署:优化后的模型被部署到目标硬件上。
  • 执行:模型在目标设备上执行,进行推理任务,如图像识别、语音识别等。

总结:

  • ONNX的作用:提供了一个中间桥梁,允许不同框架中训练的模型被统一表示和共享。
  • 神经网络编译器的作用:进一步优化ONNX格式的模型,确保它们在特定硬件上高效运行。

 

【图表示】:

ONNX 两个主要的 Protobuf 协议对象:TensorProto、AttributeProto

  1. TensorProto:

    • 这个结构用于定义神经网络中的张量(多维数组),它包含张量的维度(dims)、数据类型(data_type)、数据本身(float_data, int32_data, string_data, int64_data, raw_data等),以及数据存储顺序(通常为行主序)。
    • TensorProto可以包含任何类型的数据,包括原始的字节数据,这在存储复杂的或非标准格式的张量时非常有用。
  2. AttributeProto:

    • 用于定义图中节点属性的结构,它可以包含单个的数据值(如浮点数、整数、字符串、图、张量)或这些数据类型的数组。
    • 每个属性都有一个名字(name)和一个类型(AttributeType),类型决定了属性值可以是哪种数据。

这些协议对象是ONNX标准的一部分,使得ONNX能够以一种跨平台、跨语言的方式精确地表示神经网络模型的结构和权重。

它们使得模型可以从一个框架转换并在另一个框架中使用,这对于深度学习模型的共享和部署至关重要。

【图优化】:

  1. 节点融合: 将多个操作符(Op)融合为单个复合操作符,以减少内存访问次数和计算开销。例如,将卷积、批量归一化和激活函数合并为一个操作。

AI芯片:神经网络研发加速器、神经网络压缩简化、通用芯片 CPU 加速、专用芯片 GPU 加速,# 深度学习,人工智能,神经网络,深度学习

  1. 常量折叠: 在编译时预计算那些以常量输入进行的操作,减少运行时的计算量。

AI芯片:神经网络研发加速器、神经网络压缩简化、通用芯片 CPU 加速、专用芯片 GPU 加速,# 深度学习,人工智能,神经网络,深度学习

  1. 死代码消除: 移除那些不会影响最终输出的操作,比如未使用的变量或操作。

  2. 公共子表达式消除: 检测并合并计算图中重复的表达式,以节省计算资源。

  3. 内存优化: 优化数据的存储和访问方式,减少内存使用量,例如通过就地操作(in-place operations)来减少不必要的数据复制。

  4. 层次融合: 类似节点融合,但在更高的层次上,比如将多层网络结构融合以减少中间数据的存储和传递。

  5. 操作调度: 优化操作的执行顺序,以提高硬件的使用效率,减少等待时间。

  6. 数据布局转换: 改变数据在内存中的排列方式(如NCHW到NHWC),以适配硬件特性,提高内存访问效率。

  7. 算子融合: 把能够一起执行的多个算子合并为一个算子,以减少内存访问和改善缓存使用。

  8. 精度优化: 根据需要将数据类型从高精度(如float64)降低到低精度(如float16或INT8),以加快计算速度并减少内存使用,特别是在支持低精度计算的硬件上。

所有这些优化都是为了减少计算量、提高执行速度、减少内存占用,并最大化硬件利用率。

【计算优化】:

  1. 向量化(Vectorization):
    • 利用SIMD指令集对操作进行向量化处理,同时处理多个数据点,提高了数据处理速率。

AI芯片:神经网络研发加速器、神经网络压缩简化、通用芯片 CPU 加速、专用芯片 GPU 加速,# 深度学习,人工智能,神经网络,深度学习

  • 首先,三个独立的数据向量(A0, A1, A2, A3),(B0, B1, B2, B3),和(C0, C1, C2, C3)被加载到SIMD寄存器中。这通常使用如_mm_loadu_ps这样的指令完成,它可以从非对齐的内存地址加载多个浮点数到一个SIMD寄存器。

  • 接下来,使用SIMD加法指令(如_mm_add_ps)对这些向量进行逐元素加法操作。这样,每个数据向量中相应的元素将被加在一起。

  • 然后,使用SIMD水平加法指令(如_mm_hadd_ps),对加法的结果进行进一步的组合。水平加法将一个SIMD寄存器中的相邻元素加在一起。

  • 最后,使用如_mm_store_ss这样的指令,将计算的结果存回内存中。

  1. 并行化(Parallelization):
    • 分布计算工作负载,利用多核CPU、GPU的多个计算单元,或者其他硬件加速器(如FPGA、TPU)的并行处理能力。

AI芯片:神经网络研发加速器、神经网络压缩简化、通用芯片 CPU 加速、专用芯片 GPU 加速,# 深度学习,人工智能,神经网络,深度学习

  • 利用缓存,所需的数据可以被连续地加载到缓存中,而不是随机地从内存中读取,提取加速
  1. 循环展开(Loop Unrolling):

    • 展开循环结构以减少循环控制的开销,并可能使编译器能够进一步优化。
  2. 内存访问优化:

    • 通过优化数据存储模式和访问模式来减少缓存未命中和内存延迟。
  3. 算术强度提升(Increase Arithmetic Intensity):

    • 通过减少内存操作和增加计算操作的比例,提高计算与内存传输的比率。
  4. 算子融合(Operator Fusion):

    • 将多个操作融合为一个复合操作,以减少内存访问次数和提高缓存利用率。
  5. 内核融合(Kernel Fusion):

    • 在GPU编程中,将多个内核操作融合成单个内核,减少GPU内核启动的开销。
  6. 延迟执行(Lazy Evaluation):

    • 操作只在必要时执行,避免不必要的计算,节省资源。
  7. 精确度与混合精度训练(Precision and Mixed-Precision Training):

    • 适当降低计算的精度来加快速度,如使用半精度浮点数(float16)代替全精度(float32)。
  8. 特定硬件优化:

    • 根据目标硬件的特定特性(如GPU的共享内存大小、CPU的缓存行大小)进行优化。
  9. 编译时优化(Compile-time Optimizations):

    • 利用编译器的高级优化,如去除冗余计算、优化分支预测等。
  10. 动态张量重用(Dynamic Tensor Rematerialization):

    • 在运行时动态决定数据结构的生命周期,以减少内存占用。
  11. 消除重复计算:对于一个均值池化,那么橘色部分就是重复计算的,可以通过优化消除重复计算

AI芯片:神经网络研发加速器、神经网络压缩简化、通用芯片 CPU 加速、专用芯片 GPU 加速,# 深度学习,人工智能,神经网络,深度学习

 


各自实现的神经网络编译器

神经网络编译器组成:编译器、图表示、图优化、计算优化、代码生成。

所以,就有了 — 各自实现的神经网络编译器。

  • TVM 神经网络编译器
  • NCNN 神经网络推理框架
  • MNN 移动神经网络引擎

介绍:

  • TVM:https://tvm.apache.org/docs/install/index.html

    是一个开源的神经网络编译器框架,它可以将各种深度学习模型(如TensorFlow、PyTorch、MXNet等的模型)编译成优化的代码,以在多种硬件上运行,包括CPU、GPU、FPGA等。

    TVM特别强调自动化的性能优化,使用了一种叫做AutoTVM的系统自动调整模型参数以适应不同的硬件配置。

  • NCNN:https://github.com/Tencent/ncnn/wiki/how-to-build#build-for-linux

    由腾讯优化的一个轻量级深度学习框架,专门用于移动设备和边缘计算设备。

    它不依赖于第三方库,非常适合于移动应用。

    NCNN特别关注于在低功耗设备上的高性能运行,它通过优化网络的内存使用和计算速度,使得模型在移动设备上能够快速且有效地执行。

  • MNN:https://www.yuque.com/mnn/cn

    由阿里巴巴开源的深度学习框架,旨在帮助开发者在端侧设备上部署AI模型。

    MNN的主要特点是支持多平台和多后端,能够在各种设备上运行,如iOS和Android手机、服务器和IoT设备。

    它通过优化计算图,减少内存占用,并提供多种量化方案以适应不同的应用需求。

他们的结构就不一一拆解了。

 

神经网络加速与压缩(算法层面)

  1. 矩阵低秩分解
    • 概念:将神经网络的参数(例如,全连接层的二维矩阵、卷积层的四维矩阵)通过矩阵分解和低秩近似,分解为多个计算总量更小的小矩阵。
    • 目的:加速网络计算过程。
    • 方法:例如SVD分解、Tucker分解。
    • 影响:分解为多层可能增加数据读取次数,影响速度。
       
  2. 剪枝
    • 类型:包括非结构化剪枝和结构化剪枝,以及自动化剪枝。
    • 非结构化剪枝:去除权重矩阵中不重要的元素,形成稀疏矩阵,通过稀疏存储减少模型大小。
    • 结构化剪枝:删除整个网络结构的一部分(如通道、过滤器、层),在现有框架上实现加速。
    • 自动化剪枝:自动确定剪枝结构,如AMC(自动化模型压缩)和MetaPruning。
       
  3. 量化
    • 概念:将网络参数和激活值从高精度(如FP32)转化为低精度(如INT8),以加快推理速度。
    • 挑战:量化可能导致精度损失,需精心设计,如数值对齐、对称和非对称量化等。
       
  4. 知识蒸馏
    • 概念:从大型模型(教师网络)到小型模型(学生网络)的知识迁移。
    • 目的:保持小模型在减少计算量的同时获得较高性能。
    • 发展:许多方法被提出,如FitNet、Attention Transfer,以及无数据网络压缩。
       
  5. 轻量化模型设计
    • 目标:设计高效、轻量的网络,替代传统大型网络。
    • 方法:使用高效操作,如深度可分离卷积,减少参数量。
    • 代表模型:Google的MobileNet系列,旷视的ShuffleNet。

从结构调整到参数精度的多个层面。

目标是在保持模型性能的同时,减少模型的计算负担和存储需求,特别适用于资源受限的环境,如移动设备和边缘计算平台。

每种技术都有其独特的优点和适用场景,在实际应用中往往需要结合多种技术来达到最佳效果。

 

知识蒸馏

 

低秩分解

 

轻量化网络

 

剪枝

 

量化

 


通用芯片 CPU 加速

 

x86 加速

 

arm 加速

 

卷积优化

 

神经网络加速库

 


专用芯片 GPU 加速

 

dsp加速

 

faga加速

 

npu加速

 

K210人工智能微控制器

 

神经网络加速库: Vulkan图形计算

到了这里,关于AI芯片:神经网络研发加速器、神经网络压缩简化、通用芯片 CPU 加速、专用芯片 GPU 加速的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • FPGA Artix7-100T实现手写字硬件加速,纯Verilog编写的CNN神经网络加速器,有效减轻误识别问题

    fpga实现cnn神经网络加速 手写字硬件加速 FPGA artix7-100t 纯verilog编写 神经网络硬件加速 使用ov5640摄像头dvp接口 verilog实现手写字识别 包括卷积层、全连接层、池化层、softmax,有效减轻误识别问题。 注意: 该项目并未使用到arm核,是使用传统fpga的逻辑资源实现的。 ID:92299 7141

    2024年04月23日
    浏览(30)
  • 专用神经网络处理器芯片,神经网络芯片概念股

    2012年,公司整体改制为股份有限公司;2016年12月1日,公司在上海证券交易所主板挂牌上市。 2、佳都科技:佳都科技(PCI)创立于1986年,总部位于中国广州,在中国30多个区域设有分公司或办事处,员工超过2000人,拥有科学家研发团队,设立了佳都科技全球人工智能技术研

    2024年02月07日
    浏览(55)
  • 人工智能神经网络概念股,神经网络芯片概念股

    人工智能包含硬件智能、软件智能和其他。 硬件智能包括:汉王科技、康力电梯、慈星股份、东方网力、高新兴、紫光股份。 软件智能包括:金自天正、科大讯飞。 其他类包括:中科曙光、京山轻机。 谷歌人工智能写作项目:小发猫 1、苏州科达:苏州科达科技股份有限公

    2024年02月07日
    浏览(53)
  • 跑出创新加速度,AI基础软件成AIGC产业发展加速器

    2023年中国国际服务贸易交易会(以下简称“服贸会”)受世界瞩目正在火热进行,9月4日,服贸会专题论坛之“2023中国AIGC创新发展论坛” 在大会期间成功举办, 九章云极DataCanvas公司副总裁周晓凌受邀出席论坛,并发表题为“AI基础软件促进大模型与AIGC应用快速发展”的精

    2024年02月09日
    浏览(53)
  • GPU如何成为AI的加速器

    目录 0. 前言 1. 从显卡的诞生说起 2. GPU粉墨登场 3. 渲染——让计算机图像更逼真 4. 从GPU到GPGPU 5. CUDA——奠定了NVIDIA成为寡头的基础 6. 未来不只有GPU 20231122更新 0. 前言 按照国际惯例,首先声明:本文只是我自己学习的理解,虽然参考了他人的宝贵见解,但是内容可能存在不

    2024年02月08日
    浏览(41)
  • 基于FPGA的一维卷积神经网络算法实现(1D-CNN、BNN的FPGA加速实现)

    本文介绍一种基于FPGA的1维卷积神经网络算法加速实现的方案,其中为了进一步提升运算速度,除了第一层卷积采用的是普通卷积运算(CONV),其余卷积层和池化层采用的是二值化运算,即二值化的卷积与池化。 运算过程包含了卷积层、池化层、批标准化层、全局池化、二值

    2024年02月16日
    浏览(58)
  • 【AI】深度学习——前馈神经网络——全连接前馈神经网络

    前馈神经网络(Feedforward Neural Network,FNN)也称为多层感知器(实际上前馈神经网络由多层Logistic回归模型组成) 前馈神经网络中,各个神经元属于不同的层 每层神经元接收前一层神经元的信号,并输出到下一层 输入层:第0层 输出层:最后一层 隐藏层:其他中间层 整个网络

    2024年04月12日
    浏览(109)
  • AI模型在专用加速器上的性能分析指标

            AI模型在专用加速卡上性能分析大概流程: 1)先计算模型本身的计算访存比,得到模型理论算力带宽需求。 2)根据处理器本身支持的操作字节比(算力,带宽),确认模型在该处理器上的性能表现类型。 3)根据专用加速器内部架构的内存和计算并行性的设计,

    2024年01月25日
    浏览(44)
  • AI嵌入式K210项目(15)-安全散列算法加速器

    K210内置了丰富的加速器,包括神经网络处理器 (KPU),AES(高级加密加速器),APU 麦克风阵列语音数据加速计算处理器,现场可编程 IO 阵列 (FPIOA),数字摄像头接口 (DVP),相对于软件可以极大的提高 AES 运算速度,快速傅里叶变换加速器 (FFT),安全散列算法加速器 (SHA256)。 本文介

    2024年01月20日
    浏览(58)
  • 基于英特尔® Gaudi® 2 AI 加速器的文本生成流水线

    随着生成式人工智能 (Generative AI,GenAI) 革命的全面推进,使用 Llama 2 等开源 transformer 模型生成文本已成为新风尚。人工智能爱好者及开发人员正在寻求利用此类模型的生成能力来赋能不同的场景及应用。本文展示了如何基于 Optimum Habana 以及我们实现的流水线类轻松使用 Ll

    2024年03月14日
    浏览(51)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包