主流深度学习算法简介

这篇具有很好参考价值的文章主要介绍了主流深度学习算法简介。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

**

深度学习算法简介**

1、 深度学习主流算法包括:

1.1 CNN (卷积神经网络)
卷积神经网络(CNN)是最常见的深度学习方法之 一。自20 世纪80 年代后期以来,CNN 已应用于视觉识别与分类任务,特别是LeCun 等在1998 年提出了LeNet-5,基于CNN 的相关研究随即成为研究热点,伴随图形处理(Graphical Processing Unit,GPU)计算能力的发展和大量标记数据集的出现,CNN 在算法和架构上不断改进,在各个应用场景取得了突破。
图像分类是计算机视觉中的基本问题,通常使用特征提取和分类器判别的技术架构来解决图像的分类问题。传统图像分类方法的准确性在很大程度上取决于所提取的特征,往往存在特征设计困难、面向复杂任务具有局限性、特征间的层次关系设计困难进而导致算法的泛化性能较弱等弊端。近年来的研究表明,随着数据获取方式的简化和大数据集的出现,在GPU 等芯片技术的快速发展,深度学习可以有效解决上述瓶颈问题。2012年,Krizhevsky 等使用扩展了深度的CNN 架构在ImageNet大规模视觉识别挑战竞赛中取得了最佳的分类效果,随即CNN 受到研究者们的重视,一系列网络模型的提出进一步推动了CNN 的深入研究与广泛应用。目前,CNN 已经成为大多数图像识别、分类和检测任务的领先架构,越来越多的网络架构也相继问世,包括AlexNet、Clarifai、SPP、VGG、GoogleNet、FCN、U-Net等。同时,梯度下降、参数优化策略、权重共享以及近年来神经网络架构优化(Neural ArchitectureOptimization,NAO)和元学习(meta-learning)等理论的迅速发展,使得CNN 在复杂应用场景中的优势更加明显。新型的CNN 神经网络架构表现出以多个网络或多种网络级联组合应用的新态势,神经网络形态的快速进化为纷繁复杂的科研领域提供了智能高效的数据分析手段。

1.2 RBM (受限玻尔兹曼机)
受限玻尔兹曼机(RBM)是由Hinton 和Sejnowski[16]在1986 年提出的神经网络模型,具备两层结构、层间全连接和层内无连接的特点,适用于有效地提取数据特征以及预训练传统的前馈神经网络,可明显提高网络的判别能力。其可见层所描述的是观察数据一个方面或一个特征,约束条件是可见单元和隐藏单元必须构成二分图。这种机制可用于组建更加有效的训练算法,特别是基于梯度的对比发散算法。用RBM 可以组成以下深层模型:深度置信网络(Deep Belief Network,DBN)、深度玻尔兹曼机(Deep Boltzmann Machines,DBM)和深能模型(Deep Energy Models,DEM),适用于特征提取、数据编码、构建用于监督学习的分类或回归学习模型,以及初始化神经网络等场景。

1.3 AE (自动编码器)
自动编码器是一种特殊类型的人工神经网络,用于从数据中学习有效的特征。最初也是由Hinton在2006年提出。自动编码器的几个重要变体包括:稀疏自动编码器(Sparse Auto Encoder,SAE)、去噪自动编码器(Denoising Auto Encoder,DAE)和收缩自动编码器(Contractive Auto Encoder,CAE)。在图像处理领域,原始图像像素值作为初级特征表达通常维度很高,且大多情况下存在数据冗余,因此需要采用合适的方法对图像数据进行降维或特征提取等预处理,进而得到更加简洁而有效的特征表达,以提高数据分析效率和精度,自动编码器多用于高维数据的降维处理和特征提取。

1.4 SC (稀疏编码)
稀疏编码(Sparse Coding,SC)最早由Olshausen 和Field 于1996 年提出,用于解释大脑中的初期视觉处理(比如边缘检测)。稀疏编码通过训练和学习来构建对输入数据的描述函数,通过训练来找到一组“超完备基向量(an over-complete set of basis vectors)”来表示输入数据的算法,超完备基向量能更有效地找出隐含在输入数据内部的结构与模式来重构原数据。稀疏编码的优点主要体现在:
1)可以使用高维特征,对不同类别的特
征更加易于分类;
2)稀疏性可以捕获图像的显著特性;
3)具备与生物视觉系统类似的认知方式。稀疏编码算法被广泛应用于语音信号分离、视觉图像处理、生物DNA(DeoxyriboNucleic Acid)微阵列数据分类和模式识别等领域。

1.5 RNN (循环神经网络)
循环神经网络(Recurrent Neural Network,RNN)是一类用于处理序列数据的神经网络,与“人的认知是基于过往的经验和记忆”类似,通过使用特定形式的存储器来模拟基于时间的动态变化,RNN 不仅能考虑当前的输入,而且赋予了网络对前序内容的一种“记忆”功能。这种网络结构能够直接地反映系统动态变化过程中的高度非线性和不确定性,因此适用于对时序数据规律的学
习与未来变化趋势的预测,但该方法存在梯度消失与梯度爆炸问题[。1997 年,Hochreiter 和Schmidhuber提出了长短期记忆(Long Short-Term Memory,LSTM)网络,成功解决了这一问题。LSTM 可以保持前序信息的长期存储,在语音识别、信息检索、文本分类等应用中被广泛使用,现已成为实际应用中最有效的序列模型。

2 不同算法的特点
5 种常见的深度学习算法均具备一定的泛化能力,CNN 和SC 支持数据增强,可通过对训练数据进行旋转等处理来减少一定数据采集和标记的工作量。在无监督学习、特征学习和支持生物学解释方面,各算法表现各异。不同类型的深度学习算法表现出各自不同的特点,在实际应用场景中,研究人员需要根据特定科学问题及应用场景,选择合适的算法来构建相关模型。
主流深度学习算法简介
理论上,深度学习算法是通过海量数据来解决复杂问题的机器学习方法,通常在海量数据的支持下,深度学习方法的潜力才被充分释放和发挥出来,在数据量相对较小情况下,普通的机器学习方法即可满足数据建模与预测的应用需求,因而在具体应用中通常需要根据特定研究目标的数据量与应用需求来选取合适的算法。

内容来源:[1]岑海燕,朱月明,孙大伟,翟莉,万亮,麻志宏,刘子毅,何勇.深度学习在植物表型研究中的应用现状与展望[J].农业工程学报,2020,36(09):1-16.文章来源地址https://www.toymoban.com/news/detail-467199.html

到了这里,关于主流深度学习算法简介的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 深度学习基本概念简介

    一、Linear Models\\\' Bias 上篇学习机器学习一文中,所构造的 $y = b + wx_0$ 函数是一个linear model亦即线性模型,但是linear models有缺陷的——它过于简单了。实际应用中,我们所面临的不会只是一个简单的linear model,因此我们需要更复杂的models。 比如上图中的红色曲线,如何找到它

    2024年04月16日
    浏览(45)
  • 深度学习:Pytorch常见损失函数Loss简介

    此篇博客主要对深度学习中常用的损失函数进行介绍,并结合Pytorch的函数进行分析,讲解其用法。 L1 Loss计算预测值和真值的平均绝对误差。 L o s s ( y , y ^ ) = ∣ y − y ^ ∣ Loss(y,hat{y}) = |y-hat{y}| L oss ( y , y ^ ​ ) = ∣ y − y ^ ​ ∣ Pytorch函数: 参数: size_average (bool, optional) –

    2024年02月13日
    浏览(43)
  • 深度学习AI编译器-LLVM简介

    LLVM的命名最早来源于底层语言虚拟机(Low Level Virtual Machine)的缩写。它是一个用于建立编译器的基础框架,以C++编写。创建此工程的目的是对于任意的编程语言,利用该基础框架,构建一个包括编译时、链接时、执行时等的语言执行器。目前官方的LLVM只支持处理C/C++,Obje

    2024年02月06日
    浏览(40)
  • 深度学习AI编译器-TVM简介

    深度学习编译器主要为解决不同框架下训练的模型 部署到指定的某些设备上时所遇到的一系列复杂的问题,即将各种深度学习训练框架的模型 部署到各种硬件所面临的问题; 首先深度学习领域,从训练框架看,当前可选的框架有pytorch、TensorFlow、Mxnet、paddle,oneflow、caffe/c

    2024年02月11日
    浏览(43)
  • 从零构建深度学习推理框架-1 简介和Tensor

    源代码作者:https://github.com/zjhellofss 本文仅作为个人学习心得领悟 ,将原作品提炼,更加适合新手 深度学习推理框架用于对已训练完成的神经网络进行预测,也就是说,能够将深度训练框架例如Pytorch、Tensorflow中定义的算法移植到中心侧和端侧,并高效执行。与训练框架不同

    2024年02月15日
    浏览(47)
  • Transformer模型简介:一种革命性的深度学习模型

    Transformer模型是一种革命性的深度学习模型,最初用于自然语言处理任务,如机器翻译和语言建模。与传统的序列模型相比,如循环神经网络(RNN)和卷积神经网络(CNN),Transformer模型采用一种全新的方式来处理序列数据,即通过注意力机制来学习序列中的关系。 在传统的序列模

    2024年02月15日
    浏览(51)
  • 【深度学习:Micro-Models】用于标记图像和视频的微模型简介

    在本文中,我们将介绍 Encord 用于自动化数据注释的“微模型”方法。我们已将这种方法部署到各个领域的计算机视觉标记任务中,包括医学成像、农业、自动驾驶汽车和卫星成像。 让我们切入正题: 什么是微模型 低偏差模型适用于数据集中的一小组图像或视频。 微模型如

    2024年01月20日
    浏览(47)
  • 深度解读当前主流公链的竞争格局

    综合公链和生态来看:Sol  Avalanche  Near Bsc  Polygon  Ftm 本次仅从架构上做比较,加入了 ETH / Cosmos / Dot,观点和上次基本一致 从架构上,把目前主流公链分为三大类:多链、单链、特殊 Eth:L1 L2 优点:智能合约平台鼻祖;最安全的链;最多的创新和真实用户,目前排名第

    2023年04月13日
    浏览(40)
  • 深度学习零基础学习之路——第四章 UNet-Family中Unet、Unet++和Unet3+的简介

    第一章 Python深度学习入门之环境软件配置 第二章 Python深度学习入门之数据处理Dataset的使用 第三章 数据可视化TensorBoard和TochVision的使用 第四章 UNet-Family中Unet、Unet++和Unet3+的简介 第五章 个人数据集的制作   最近学习了Unet、Unet++和UNet3+模型,并且对这三者进行了一些研究

    2023年04月16日
    浏览(43)
  • 仿真机器人-深度学习CV和激光雷达感知(项目2)day03【机器人简介与ROS基础】

    💫你好,我是辰chen,本文旨在准备考研复试或就业 💫本文内容是我为复试准备的第二个项目 💫欢迎大家的关注,我的博客主要关注于考研408以及AIoT的内容 🌟 预置知识:基本Python语法,基本linux命令行使用 以下的几个专栏是本人比较满意的专栏 (大部分专栏仍在持续更新

    2024年01月19日
    浏览(50)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包