基于BP神经网络的PID智能控制

这篇具有很好参考价值的文章主要介绍了基于BP神经网络的PID智能控制。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

基于BP神经网络的PID整定原理

PID控制要获得较好的控制效果,就必须通过调整好比例、积分和微分三种控制作用,形成控制量中既相互配合又相互制约的关系,这种关系不一定是简单的“线性组合”,从变化无穷的非线性组合中可以找出最佳的。神经网络所具有的任意非线性表达的能力,可以通过对系统性能的学习来实现具有最佳组合的PID控制。采用BP神经网络,可以建立参数Kp、Ki、Kd自学习的PID控制器。

经典的增量式数字PID控制算法为:

u(k)=u(k−1)+∆u(k)
∆u(k)=k_p(error(k)−error(k−1))+k_ierror(k)+k_d(error(k)−2error(k−1)+error(k−2))

BP神经网络结构:

神经网络pid控制,移动机器人,人工智能,神经网络,算法,人工智能
神经网络pid控制,移动机器人,人工智能,神经网络,算法,人工智能

学习算法

神经网络pid控制,移动机器人,人工智能,神经网络,算法,人工智能
神经网络pid控制,移动机器人,人工智能,神经网络,算法,人工智能
神经网络pid控制,移动机器人,人工智能,神经网络,算法,人工智能

仿真模型

神经网络pid控制,移动机器人,人工智能,神经网络,算法,人工智能

Matlab代码

略做优化及解释

%BP based PID Control
clear all;
close all;
xite=0.20;
alfa=0.05;
S=2; %Signal type
IN=4;H=5;Out=3; %NN Structure
if S==1 %Step Signal
% wi=[-0.6394 -0.2696 -0.3756 -0.7023;
% 
% -0.8603 -0.2013 -0.5024 -0.2596;
% 
% -1.0749 0.5543 -1.6820 -0.5437;
% 
% -0.3625 -0.0724 -0.6463 -0.2859;
% 
% 0.1425 0.0279 -0.5406 -0.7660];

wi=0.50*rands(H,IN);

wi_1=wi;wi_2=wi;wi_3=wi;

% wo=[0.7576 0.2616 0.5820 -0.1416 -0.1325;
% 
% -0.1146 0.2949 0.8352 0.2205 0.4508;
% 
% 0.7201 0.4566 0.7672 0.4962 0.3632];

wo=0.50*rands(Out,H);

wo_1=wo;wo_2=wo;wo_3=wo;

end

if S==2 %Sine Signal

% wi=[-0.2846 0.2193 -0.5097 -1.0668;
% 
% -0.7484 -0.1210 -0.4708 0.0988;
% 
% -0.7176 0.8297 -1.6000 0.2049;
% 
% -0.0858 0.1925 -0.6346 0.0347;
% 
% 0.4358 0.2369 -0.4564 -0.1324];

% wi=[0.2909    0.0504   -0.5608    0.8765;
%    -0.4225    0.5890    0.1840    0.5660;
%    -0.2075   -0.4704    0.1246   -0.3400;
%    -0.2277   -0.0930   -0.0809    0.3108;
%     0.3456   -0.1417   -0.5223    0.298]

wi=0.50*rands(H,IN)

wi_1=wi;wi_2=wi;wi_3=wi;

% wo=[1.0438 0.5478 0.8682 0.1446 0.1537;
% 
% 0.1716 0.5811 1.1214 0.5067 0.7370;
% 
% 1.0063 0.7428 1.0534 0.7824 0.6494];

% wo=[-0.5582   -0.4503   -0.5845   -0.1433    0.2659;
%    -0.3943   -0.3942    0.2685   -0.1449   -0.2649;
%    -0.5109   -0.2169    0.3106   -0.2965   -0.5230]

wo=0.50*rands(Out,H)

wo_1=wo;wo_2=wo;wo_3=wo;

end

x=[0,0,0];

du_1=0;

u_1=0;u_2=0;u_3=0;u_4=0;u_5=0;

y_1=0;y_2=0;y_3=0;

Oh=zeros(H,1); %Output from NN middle layer

I=Oh; %Input to NN middle layer

error_2=0;

error_1=0;

ts=0.001;

for k=1:1:6000

time(k)=k*ts;

if S==1

rin(k)=1.0;

elseif S==2

rin(k)=sin(1*2*pi*k*ts);

end

%Unlinear model
a(k)=1.2*(1-0.8*exp(-0.1*k));
yout(k)=a(k)*y_1/(1+y_1^2)+u_1;

error(k)=rin(k)-yout(k);

xi=[rin(k),yout(k),error(k),1];

x(1)=error(k)-error_1;

x(2)=error(k);

x(3)=error(k)-2*error_1+error_2;

epid=[x(1);x(2);x(3)];

I=xi*wi'; % [1,4]*[4,5]

% 中间层激活函数
for j=1:1:H
    Oh(j)=(exp(I(j))-exp(-I(j)))/(exp(I(j))+exp(-I(j))); %Middle Layer
end

K=wo*Oh; %Output Layer [3,5]*[5,1]

% 输出层激活函数
for l=1:1:Out
    K(l)=exp(K(l))/(exp(K(l))+exp(-K(l))); %Getting kp,ki,kd
end

% 输出层输出结果,PID系数
kp(k)=K(1);ki(k)=K(2);kd(k)=K(3);

Kpid=[kp(k),ki(k),kd(k)];
% 增量PID计算
du(k)=Kpid*epid;
u(k)=u_1+du(k); %PID控制量输出
% 符号函数,模型输出变化量/控制增量的变化量(+0.0001避免出现除0)
dyu(k)=sign((yout(k)-y_1)/(du(k)-du_1+0.0001));

%Output layer
% 输出层激活函数求导 
for j=1:1:Out
    dK(j)=2/(exp(K(j))+exp(-K(j)))^2;
end

for l=1:1:Out
    delta3(l)=error(k)*dyu(k)*epid(l)*dK(l);
end

for l=1:1:Out
    for i=1:1:H
        d_wo(l,i)=xite*delta3(l)*Oh(i)+alfa*(wo_1(l,i)-wo_2(l,i));
    end
end

wo=wo_1+d_wo+alfa*(wo_1-wo_2);

%Hidden layer
% 中间层激活函数求导
for i=1:1:H
    dO(i)=4/(exp(I(i))+exp(-I(i)))^2;
end

segma=delta3*wo;

for i=1:1:H
    delta2(i)=dO(i)*segma(i);
end

d_wi=xite*delta2'*xi;

wi=wi_1+d_wi+alfa*(wi_1-wi_2);

%Parameters Update

du_1=du(k);

u_5=u_4;u_4=u_3;u_3=u_2;u_2=u_1;u_1=u(k);

y_2=y_1;y_1=yout(k);

wo_3=wo_2;

wo_2=wo_1;

wo_1=wo;

wi_3=wi_2;

wi_2=wi_1;

wi_1=wi;

error_2=error_1;

error_1=error(k);

end

wi
wo
figure(1);

plot(time,rin,'r',time,yout,'b--');
xlabel('time(s)');ylabel('rin,yout');
legend('rin','yout');
grid on
figure(2);

plot(time,error,'r');

xlabel('time(s)');ylabel('error');
grid on
figure(3);

plot(time,u,'r');

xlabel('time(s)');ylabel('u');
grid on
figure(4);
subplot(311);

plot(time,kp,'r');

xlabel('time(s)');ylabel('kp');
grid on
subplot(312);

plot(time,ki,'g');

xlabel('time(s)');ylabel('ki');
grid on
subplot(313);

plot(time,kd,'b');

xlabel('time(s)');ylabel('kd');
grid on

仿真效果图

神经网络pid控制,移动机器人,人工智能,神经网络,算法,人工智能

神经网络pid控制,移动机器人,人工智能,神经网络,算法,人工智能
神经网络pid控制,移动机器人,人工智能,神经网络,算法,人工智能
神经网络pid控制,移动机器人,人工智能,神经网络,算法,人工智能

结论

由图可知,该算法经过一段时间的自动调参后误差趋于稳定,PID参数随着误差的变化而变化,证明了算法的有效性。实际使用时可增加一些限制条件,使算法更加鲁棒。

python仿真

单位阶跃信号响应,可根据实际模型使用PID或PI、PD控制,把不用的项系数设为0即可。
神经网络pid控制,移动机器人,人工智能,神经网络,算法,人工智能
神经网络pid控制,移动机器人,人工智能,神经网络,算法,人工智能
神经网络pid控制,移动机器人,人工智能,神经网络,算法,人工智能
神经网络pid控制,移动机器人,人工智能,神经网络,算法,人工智能

参考文献

[1]: 先进PID控制MATLAB仿真(第二版)刘金琨 第4章 神经PID控制文章来源地址https://www.toymoban.com/news/detail-785505.html

到了这里,关于基于BP神经网络的PID智能控制的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Python实现HBA混合蝙蝠智能算法优化BP神经网络回归模型(BP神经网络回归算法)项目实战

    说明:这是一个机器学习实战项目(附带数据+代码+文档+视频讲解),如需数据+代码+文档+视频讲解可以直接到文章最后获取。   蝙蝠算法是2010年杨教授基于群体智能提出的启发式搜索算法,是一种搜索全局最优解的有效方法。该算法基于迭代优化,初始化为一组随机解,

    2024年02月16日
    浏览(55)
  • 基于BP神经网络的风险等级预测,BP神经网络的详细原理,

    背影 BP神经网络的原理 BP神经网络的定义 BP神经网络的基本结构 BP神经网络的神经元 BP神经网络的激活函数, BP神经网络的传递函数 代码链接:基于BP神经网络的风险等级评价,基于BP神经网络的风险等级预测(代码完整,数据齐全)资源-CSDN文库 https://download.csdn.net/download

    2024年02月06日
    浏览(47)
  • 【人工智能Ⅰ】实验9:BP神经网络

    实验9 BP神经网络 一、实验目的 1:掌握BP神经网络的原理。 2:了解BP神经网络的结构,以及前向传播和反向传播的过程。 3:学会利用BP神经网络建立训练模型,并对模型进行评估。即学习如何调用Sklearn中的BP神经网络。 4:学会使用BP神经网络做预测。 5:通过截图和模型评

    2024年02月02日
    浏览(68)
  • 基于遗传算法优化BP神经网络的滑坡稳定性预测,BP神经网络的详细原理

    目录 BP神经网络的原理 BP神经网络的定义 BP神经网络的基本结构 BP神经网络的神经元 BP神经网络的激活函数, BP神经网络的传递函数 遗传算法原理 遗传算法主要参数 遗传算法流程图 完整代码包含数据下载链接: 遗传算法优化BP神经网络的MATALB代码,遗传算法优化BP神经网络

    2024年02月05日
    浏览(60)
  • BP神经网络优化 | MATLAB基于遗传算法优化BP神经网络(GA-BP)的预测模型(含完整代码)

    文章目录 前言 一、遗传算法描述 二、优化思路 三、完整代码 预测结果  首先需要安装一下遗传算法工具箱,可参考这篇博客 MATLAB遗传算法工具箱安装包及安装方法(图解)_周杰伦今天喝奶茶了吗的博客-CSDN博客_matlab遗传算法工具箱安装 本模型可以结合自己的数据集进行

    2024年02月02日
    浏览(61)
  • BP神经网络(Python代码实现)基于pytorch

     BP(Back Propagation)神经网络是一种按误差逆传播算法训练的多层前馈网络,它的学习规则是 使用梯度下降法 , 通过反向传播来不断调整网络的权值和阈值 ,使网络的误差平方和最小。BP神经网络模型拓扑结构包括输入层(input)、隐层(hiddenlayer)和输出层(output layer)。BP网络的学习

    2024年02月11日
    浏览(56)
  • 基于人工水母优化的BP神经网络(分类应用) - 附代码

    摘要:本文主要介绍如何用人工水母算法优化BP神经网络,利用鸢尾花数据,做一个简单的讲解。 本案例利用matlab公用的iris鸢尾花数据,作为测试数据,iris数据是特征为4维,类别为3个类别。数据格式如下: 特征1 特征2 特征3 类别 单组iris数据 5.3 2.1 1.2 1 3种类别用1,2,3表

    2024年02月07日
    浏览(45)
  • 基于野狗算法优化的BP神经网络(预测应用) - 附代码

    摘要:本文主要介绍如何用野狗算法优化BP神经网络并应用于预测。 本案例数据一共2000组,其中1900组用于训练,100组用于测试。数据的输入为2维数据,预测的输出为1维数据 2.1 BP神经网络参数设置 神经网络参数如下: 2.2 野狗算法应用 野狗算法原理请参考:https://blog.csdn.

    2024年02月11日
    浏览(50)
  • 基于水基湍流优化的BP神经网络(分类应用) - 附代码

    摘要:本文主要介绍如何用水基湍流算法优化BP神经网络,利用鸢尾花数据,做一个简单的讲解。 本案例利用matlab公用的iris鸢尾花数据,作为测试数据,iris数据是特征为4维,类别为3个类别。数据格式如下: 特征1 特征2 特征3 类别 单组iris数据 5.3 2.1 1.2 1 3种类别用1,2,3表

    2024年02月07日
    浏览(39)
  • 基于食肉植物优化的BP神经网络(分类应用) - 附代码

    摘要:本文主要介绍如何用食肉植物算法优化BP神经网络,利用鸢尾花数据,做一个简单的讲解。 本案例利用matlab公用的iris鸢尾花数据,作为测试数据,iris数据是特征为4维,类别为3个类别。数据格式如下: 特征1 特征2 特征3 类别 单组iris数据 5.3 2.1 1.2 1 3种类别用1,2,3表

    2024年02月07日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包