BP神经网络matlab实例(简单而经典).doc
- 文档编号:265754
- 上传时间:2022-10-08
- 格式:DOC
- 页数:7
- 大小:158.33KB
BP神经网络matlab实例(简单而经典).doc
《BP神经网络matlab实例(简单而经典).doc》由会员分享,可在线阅读,更多相关《BP神经网络matlab实例(简单而经典).doc(7页珍藏版)》请在冰豆网上搜索。
学习神经网络的好助手,可以仿照其中的代码,只需修改个别参数便可以轻易实现自己需要完成的任务。
p=p1';t=t1';
[pn,minp,maxp,tn,mint,maxt]=premnmx(p,t);%原始数据归一化
net=newff(minmax(pn),[5,1],{'tansig','purelin'},'traingdx');%设置网络,建立相应的BP网络
net.trainParam.show=2000;%训练网络
net.trainParam.lr=0.01;
net.trainParam.epochs=100000;
net.trainParam.goal=1e-5;
[net,tr]=train(net,pn,tn);%调用TRAINGDM算法训练BP网络
pnew=pnew1';
pnewn=tramnmx(pnew,minp,maxp);
anewn=sim(net,pnewn);%对BP网络进行仿真
anew=postmnmx(anewn,mint,maxt);%还原数据
y=anew';
1、BP网络构建
(1)生成BP网络
:
由维的输入样本最小最大值构成的维矩阵。
:
各层的神经元个数。
:
各层的神经元传递函数。
:
训练用函数的名称。
(2)网络训练
(3)网络仿真
{'tansig','purelin'},'trainrp'
BP网络的训练函数
训练方法
训练函数
梯度下降法
traingd
有动量的梯度下降法
traingdm
自适应lr梯度下降法
traingda
自适应lr动量梯度下降法
traingdx
弹性梯度下降法
trainrp
Fletcher-Reeves共轭梯度法
traincgf
Ploak-Ribiere共轭梯度法
traincgp
Powell-Beale共轭梯度法
traincgb
量化共轭梯度法
trainscg
拟牛顿算法
trainbfg
一步正割算法
trainoss
Levenberg-Marquardt
trainlm
BP网络训练参数
训练参数
参数介绍
训练函数
net.trainParam.epochs
最大训练次数(缺省为10)
traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm
net.trainParam.goal
训练要求精度(缺省为0)
traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm
net.trainParam.lr
学习率(缺省为0.01)
traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm
net.trainParam.max_fail
最大失败次数(缺省为5)
traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm
net.trainParam.min_grad
最小梯度要求(缺省为1e-10)
traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm
net.trainParam.show
显示训练迭代过程(NaN表示不显示,缺省为25)
traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm
net.trainParam.time
最大训练时间(缺省为inf)
traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm
net.trainParam.mc
动量因子(缺省0.9)
traingdm、traingdx
net.trainParam.lr_inc
学习率lr增长比(缺省为1.05)
traingda、traingdx
net.trainParam.lr_dec
学习率lr下降比(缺省为0.7)
traingda、traingdx
net.trainParam.max_perf_inc
表现函数增加最大比(缺省为1.04)
traingda、traingdx
net.trainParam.delt_inc
权值变化增加量(缺省为1.2)
trainrp
net.trainParam.delt_dec
权值变化减小量(缺省为0.5)
trainrp
net.trainParam.delt0
初始权值变化(缺省为0.07)
trainrp
net.trainParam.deltamax
权值变化最大值(缺省为50.0)
trainrp
net.trainParam.searchFcn
一维线性搜索方法(缺省为srchcha)
traincgf、traincgp、traincgb、trainbfg、trainoss
net.trainParam.sigma
因为二次求导对权值调整的影响参数(缺省值5.0e-5)
trainscg
net.trainParam.lambda
Hessian矩阵不确定性调节参数(缺省为5.0e-7)
trainscg
net.trainParam.men_reduc
控制计算机内存/速度的参量,内存较大设为1,否则设为2(缺省为1)
trainlm
net.trainParam.mu
的初始值(缺省为0.001)
trainlm
net.trainParam.mu_dec
的减小率(缺省为0.1)
trainlm
net.trainParam.mu_inc
的增长率(缺省为10)
trainlm
net.trainParam.mu_max
的最大值(缺省为1e10)
trainlm
2、BP网络举例
举例1、
%traingd
clear;
clc;
P=[-1-1224;05057];
T=[-1-111-1];
%利用minmax函数求输入样本范围
net=newff(minmax(P),T,[5,1],{'tansig','purelin'},'trainrp');
net.trainParam.show=50;%
net.trainParam.lr=0.05;
net.trainParam.epochs=300;
net.trainParam.goal=1e-5;
[net,tr]=train(net,P,T);
net.iw{1,1}%隐层权值
net.b{1}%隐层阈值
net.lw{2,1}%输出层权值
net.b{2}%输出层阈值
sim(net,P)
举例2、利用三层BP神经网络来完成非线性函数的逼近任务,其中隐层神经元个数为五个。
样本数据:
输入X
输出D
输入X
输出D
输入X
输出D
-1.0000
-0.9602
-0.3000
0.1336
0.4000
0.3072
-0.9000
-0.5770
-0.2000
-0.2013
0.5000
0.3960
-0.8000
-0.0729
-0.1000
-0.4344
0.6000
0.3449
-0.7000
0.3771
0
-0.5000
0.7000
0.1816
-0.6000
0.6405
0.1000
-0.3930
0.8000
-0.3120
-0.5000
0.6600
0.2000
-0.1647
0.9000
-0.2189
-0.4000
0.4609
0.3000
-0.0988
1.0000
-0.3201
解:
看到期望输出的范围是,所以利用双极性Sigmoid函数作为转移函数。
程序如下:
clear;
clc;
X=-1:
0.1:
1;
D=[-0.9602-0.5770-0.07290.37710.64050.66000.4609...
0.1336-0.2013-0.4344-0.5000-0.3930-0.1647-.0988...
0.30720.39600.34490.1816-0.312-0.2189-0.3201];
figure;
plot(X,D,'*');%绘制原始数据分布图(附录:
1-1)
net=newff([-11],[51],{'tansig','tansig'});
net.trainParam.epochs=1000;%训练的最大次数
net.trainParam.goal=0.005;%全局最小误差
net=train(net,X,D);
O=sim(net,X);
figure;
plot(X,D,'*',X,O);%绘制训练后得到的结果和误差曲线(附录:
1-2、1-3)
V=net.iw{1,1};%输入层到中间层权值
theta1=net.b{1};%中间层各神经元阈值
W=net.lw{2,1};%中间层到输出层权值
theta2=net.b{2};%输出层各神经元阈值
所得结果如下:
输入层到中间层的权值:
中间层各神经元的阈值:
中间层到输出层的权值:
输出层各神经元的阈值:
举例3、利用三层BP神经网络来完成非线性函数的逼近任务,其中隐层神经元个数为五个。
样本数据:
输入X
输出D
输入X
输出D
输入X
输出D
0
0
4
4
8
2
1
1
5
3
9
3
2
2
6
2
10
4
3
3
7
1
解:
看到期望输出的范围超出,所以输出层神经元利用线性函数作为转移函数。
程序如下:
clear;
clc;
X=[012345678910];
D=[01234321234];
figure;
plot(X,D,'*');%绘制原始数据分布图
net=newff([010],[51],{'tansig','purelin'})
net.trainParam.epochs=100;
net.trainParam.goal=0.005;
net=train(net,X,D);
O=sim(net,X);
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- BP 神经网络 matlab 实例 简单 经典