深度学习 常见激活函数MATLAB 实现

这篇具有很好参考价值的文章主要介绍了深度学习 常见激活函数MATLAB 实现。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本文实现ReLU, Leaky ReLU, Expotential Linear unit, Sigmoid, tanh 激活函数的实现和可视化。

clear all;close all;clc

%% sigmoid function

x=linspace(-10.0,10.0);
y=1./(1.0+exp(-1.0*x));
figure(1)
plot(x,y,'k','LineWidth',1)
xlabel('x')
ylabel('y')
legend('sigmoid function','Location','best')
legend boxoff
title('sigmoid')
exportgraphics(gcf,'sigmoid_func.jpg')

%% tanh function
y = tanh(x);
figure(2)
plot(x,y,'k','LineWidth',1) 
xlabel('x')
ylabel('y')
legend('tanh function','Location','best')
legend boxoff
title('tanh')
exportgraphics(gcf,'tanh_func.jpg')

%% ReLU function
relu1=@(x)(x.*(x>=0)+0.*(x<0));
y = relu1(x);
figure(3)
plot(x,y,'k','LineWidth',1) 
xlabel('x')
ylabel('y')
legend('relu function','Location','best')
legend boxoff
title('relu')
exportgraphics(gcf,'relu_func.jpg')

%% Leaky ReLU function
scale=0.1;
leakyrelu1=@(x,scale)(x.*(x>=0)+scale.*x.*(x<0));
y = leakyrelu1(x,scale);
figure(4)
plot(x,y,'k','LineWidth',1) 
xlabel('x')
ylabel('y')
legend('leaky relu function','Location','best')
legend boxoff
title('leaky relu')
exportgraphics(gcf,'leakyrelu_func.jpg')

%% ELU function
alpha=0.1;
elu=@(x,alpha)(x.*(x>=0)+alpha.*(exp(x)-1).*(x<0));
y = elu(x,alpha);
figure(5)
plot(x,y,'k','LineWidth',1) 
xlabel('x')
ylabel('y')
legend('elu function','Location','best')
legend boxoff
title('elu')
exportgraphics(gcf,'elu_func.jpg')

matlab 激活函数,深度学习知识点浅析,深度学习,matlab,人工智能

 文章来源地址https://www.toymoban.com/news/detail-545250.html

 matlab 激活函数,深度学习知识点浅析,深度学习,matlab,人工智能

 

 matlab 激活函数,深度学习知识点浅析,深度学习,matlab,人工智能

 

 matlab 激活函数,深度学习知识点浅析,深度学习,matlab,人工智能

 

 matlab 激活函数,深度学习知识点浅析,深度学习,matlab,人工智能

 

到了这里,关于深度学习 常见激活函数MATLAB 实现的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 深度学习常用的激活函数

    深度学习的核心思想是通过多层次的神经网络结构,逐步抽取和表示数据中的高级特征,从而实现对复杂数据模式的学习和识别。 神经网络结构: 深度学习使用多层次的神经网络,包括输入层、隐藏层和输出层。这些网络结构允许模型自动学习数据中的特征层次。 反向传播

    2024年02月14日
    浏览(36)
  • 深度学习3:激活函数

    激活函数:是用来加入非线性因素的,解决线性模型所不能解决的问题。 线性函数的组合解决的问题太有限了,碰到非线性问题就束手无策了。如下图。 通过激活函数映射之后,可以输出非线性函数。 最后再通过最优化 损失函数的做法,我们能够学习到不断学习靠近能够正

    2024年02月11日
    浏览(30)
  • 【深度学习_TensorFlow】激活函数

    上篇文章我们了解到感知机使用的阶跃函数和符号函数,它们都是非连续,导数为0的函数: 建议回顾上篇文章,本篇文章将介绍神经网络中的常见激活函数,这些函数都是平滑可导的,适合于梯度下降算法。 激活函数是做什么的? 激活函数(Activation Function)是神经网络中

    2024年02月13日
    浏览(40)
  • 基于深度学习的裂纹图像分类研究(Matlab代码实现)

     💥💥💞💞 欢迎来到本博客 ❤️❤️💥💥 🏆博主优势: 🌞🌞🌞 博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。 ⛳️ 座右铭: 行百里者,半于九十。 📋📋📋 本文目录如下: 🎁🎁🎁 目录 💥1 概述 📚2 运行结果 🎉3 参考文献 🌈4 Matlab代码实现 基于深

    2024年02月15日
    浏览(40)
  • MATLAB知识点:triu函数和tril函数--返回矩阵的上三角部分和下三角部分。

     讲解视频:可以在bilibili搜索“MATLAB教程新手入门篇——数学建模清风主讲”。 MATLAB教程新手入门篇(数学建模清风主讲,适合零基础同学观看)_哔哩哔哩_bilibili 以下内容节选自第三章3.5节 triu 函数 和 tril函数, 它们用法相同,可分别用来返回矩阵的上三角部分和下三角

    2024年01月25日
    浏览(47)
  • 深度学习——常用激活函数解析与对比

    在神经网络中,激活函数扮演着至关重要的角色。它们的主要目的是引入非线性因素,使得网络能够学习和表示更加复杂的函数映射。以下是激活函数应具备的特点,以及这些特点为何重要的详细解释: 引入非线性有助于优化网络 : 非线性激活函数是神经网络能够解决非线

    2024年04月25日
    浏览(49)
  • 【深度学习】2-1 神经网络 - 激活函数

    将输入信号的总和转换为输出信号,一般称为激活函数(activation function)。激活函数作用在于决定如何来激活输入信号的总和。 对激活函数,一般要求: 非线性 :为提高模型的学习能力,如果是线性,那么再多层都相当于只有两层效果。 可微性 :有时可以弱化,在一些点

    2024年02月09日
    浏览(37)
  • 李沐深度学习-激活函数/多层感知机文档

    multilayer perceptron (MLP):多层感知机(多层神经网络) (hidden layer)隐藏层: 介于输入层和输出层之间的网络层 输入层不涉及计算,如果一个神将网络由三层组成,则多层感知机层数为2 多层感知机中隐藏层和输出层都是全连接 隐藏层的输出(也叫隐藏层变量或隐藏变量) 隐藏层单元

    2024年01月24日
    浏览(36)
  • 现代C++中的从头开始深度学习:激活函数

            让我们通过在C++中实现激活函数来获得乐趣。 人工神经网络是生物启发模型的一个例子。在人工神经网络中,称为神经元的处理单元被分组在计算层中,通常用于执行模式识别任务。         在这个模型中,我们通常更喜欢控制每一层的输出以服从一些约束。

    2024年02月15日
    浏览(34)
  • 【深度学习】详解利用Matlab和Python中 LSTM 网络实现序列分类

    🔗 运行环境:Matlab、Python 🚩 撰写作者:左手の明天 🥇 精选专栏:《python》 🔥  推荐专栏:《算法研究》 🔐####  防伪水印——左手の明天 #### 🔐 💗 大家好🤗🤗🤗,我是 左手の明天 !好久不见💗 💗今天分享 Matlab深度学习 ——  LSTM 网络实现序列分类 💗

    2024年01月22日
    浏览(46)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包