多输入多输出 | Matlab实现SSA-CNN麻雀算法优化卷积神经网络多输入多输出预测

这篇具有很好参考价值的文章主要介绍了多输入多输出 | Matlab实现SSA-CNN麻雀算法优化卷积神经网络多输入多输出预测。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

多输入多输出 | Matlab实现SSA-CNN麻雀算法优化卷积神经网络多输入多输出预测

预测效果

多输入多输出 | Matlab实现SSA-CNN麻雀算法优化卷积神经网络多输入多输出预测,多输入多输出,SSA-CNN,麻雀算法优化,卷积神经网络,多输入多输出预测
多输入多输出 | Matlab实现SSA-CNN麻雀算法优化卷积神经网络多输入多输出预测,多输入多输出,SSA-CNN,麻雀算法优化,卷积神经网络,多输入多输出预测
多输入多输出 | Matlab实现SSA-CNN麻雀算法优化卷积神经网络多输入多输出预测,多输入多输出,SSA-CNN,麻雀算法优化,卷积神经网络,多输入多输出预测
多输入多输出 | Matlab实现SSA-CNN麻雀算法优化卷积神经网络多输入多输出预测,多输入多输出,SSA-CNN,麻雀算法优化,卷积神经网络,多输入多输出预测
多输入多输出 | Matlab实现SSA-CNN麻雀算法优化卷积神经网络多输入多输出预测,多输入多输出,SSA-CNN,麻雀算法优化,卷积神经网络,多输入多输出预测
多输入多输出 | Matlab实现SSA-CNN麻雀算法优化卷积神经网络多输入多输出预测,多输入多输出,SSA-CNN,麻雀算法优化,卷积神经网络,多输入多输出预测

基本介绍

Matlab实现SSA-CNN麻雀算法优化卷积神经网络多输入多输出预测(完整源码和数据)
1.data为数据集,输入10个特征,输出3个变量。
2.main.m为程序主文件,其他为函数文件无需运行。
3.命令窗口输出MBE、MAE、RMSE、R^2和MAPE,可在下载区获取数据和程序内容。
4.粒子群优化参数为学习率、批处理样本大小和、正则化参数。
注意程序和数据放在一个文件夹,运行环境为Matlab2018及以上。

模型背景

卷积神经网络是1989 年由纽约大学Lecun 提出的一种专门用来处理具有类似网格结构的数据的神经网络,例如时间序列数据和图像数据等。卷积神经网络可以看作是传统神经网络的改进,都采用了层级网络结构。其本质是一种从输入到输出的映射,能够学习大量的映射关系。CNN 网络主要由输入层、卷积层、池化层和输出层构成,其中输入层主要是对原始数据进行预处理,包括去均值、归一化。卷积计算层有两个重要的操作: 局部关联和窗口滑动。池化层位于两个卷积层中间,用于压缩数据,减小过拟合。全连接层在CNN 网络的尾部,将池化层的输出数据进行拼接。CNN 网络最主要的优势在于权值共享的特殊结构,降低了网络的复杂性,对高维数据的处理无压力。同时CNN 也避免了传统神经网络反向传播梯度损失过快的缺点。

程序设计

  • 完整源码和数据获取方式:私信博主回复Matlab实现SSA-CNN麻雀算法优化卷积神经网络多输入多输出预测


%%  数据平铺
%   将数据平铺成1维数据只是一种处理方式
%   也可以平铺成2维数据,以及3维数据,需要修改对应模型结构
%   但是应该始终和输入层数据结构保持一致
p_train =  double(reshape(P_train, 10, 1, 1, M));
p_test  =  double(reshape(P_test , 10, 1, 1, N));
t_train =  double(T_train)';
t_test  =  double(T_test )';
%-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
%%  构造网络结构
layers = [
 imageInputLayer([10, 1, 1])     % 输入层 输入数据规模[10, 1, 1]
 
 convolution2dLayer([3, 1], 16)  % 卷积核大小 3*1 生成16张特征图
 batchNormalizationLayer         % 批归一化层
 reluLayer                       % Relu激活层
 
 convolution2dLayer([3, 1], 32)  % 卷积核大小 3*1 生成32张特征图
 batchNormalizationLayer         % 批归一化层
 reluLayer                       % Relu激活层

 dropoutLayer(0.2)               % Dropout层
 fullyConnectedLayer(3)          % 全连接层
 regressionLayer];               % 回归层

%%  参数设置
options = trainingOptions('adam', ...      % ADAM 梯度下降算法
    'MiniBatchSize', 30, ...               % 批大小,每次训练样本个数30
    'MaxEpochs', 100, ...                  % 最大训练次数 100
    'InitialLearnRate', 1e-2, ...          % 初始学习率为0.01
    'LearnRateSchedule', 'piecewise', ...  % 学习率下降
    'LearnRateDropFactor', 0.5, ...        % 学习率下降因子
    'LearnRateDropPeriod', 50, ...         % 经过100次训练后 学习率为 0.01 * 0.5
    'Shuffle', 'every-epoch', ...          % 每次训练打乱数据集
    'Plots', 'training-progress', ...      % 画出曲线
    'Verbose', false);

参考资料

[1] https://blog.csdn.net/kjm13182345320/category_11003178.html?spm=1001.2014.3001.5482
[2] https://blog.csdn.net/kjm13182345320/article/details/117378431
[3] https://blog.csdn.net/kjm13182345320/article/details/118253644文章来源地址https://www.toymoban.com/news/detail-811809.html

到了这里,关于多输入多输出 | Matlab实现SSA-CNN麻雀算法优化卷积神经网络多输入多输出预测的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包