人工神经网络例题Word格式.docx
- 文档编号:14831761
- 上传时间:2022-10-25
- 格式:DOCX
- 页数:8
- 大小:86.30KB
人工神经网络例题Word格式.docx
《人工神经网络例题Word格式.docx》由会员分享,可在线阅读,更多相关《人工神经网络例题Word格式.docx(8页珍藏版)》请在冰豆网上搜索。
对于本题,输入是点坐标组成的2*9的矩阵,输入节点个数为2,期望输出向量分别用(1,-1,-1)T、(-1,1,-1)T、(-1,-1,1)T表示,至于隐层节点的个数并没有确切的方法,根据经验公式(m为隐层节点数;
n为输入层节点数;
l为输出节点数;
α为1~10之间的常数),首先确定隐层节点数为5,逐渐增加隐层节点数量,然后观察其对训练误差的影响,最终选出最合适的隐层节点数量。
表1.BP神经网络训练、分类结果
隐层节点数
误差精度
训练次数
分类结果正确率
5
0.3
66491
100%
7
31981
9
25338
10
20770
12
14052
14
11622
用matlab编程,设定训练误差精度为0.3,学习率0.2,然后进行训练,记录不同隐层节点数的情况下达到相同的训练精度所需要的训练次数,当隐层节点数为M=5时,在训练次数为66491时,结果达到训练精度;
当隐层节点数M=7时,在训练次数到达31981时,结果达到训练精度;
当隐层节点数M=9时时,在训练次数达到25338时,结果达到训练精度;
当隐层节点数M=10时,在训练次数达到20770时,结果达到训练精度;
当隐层节点数M=12时,在训练次数达到14052时,结果达到训练精度;
当隐层节点数M=14时,在训练次数达到11622时,结果达到训练精度,由此可见,在一定范围内,隐层节点数越多,达到训练精度时所用的训练次数越少,所用训练时间则越少。
因此选择隐层节点数为14。
学习率0.3,误差精度在0.1以下,输出结果和导师信号对比,输出结果都为正确,正确率达到100%。
具体程序见附件一或者BPclassify.m。
4、试设计一个吸引子为Xa=(0110)T,Xb=(1001)T的离散Hopfield人工神经网络。
其权值和阈值在[-1,1]区间取值,试求权值和阈值。
(10分)
吸引子的分布是由网络的权值(包括阈值)决定的,设计吸引子的核心就是如何设计一组合适的权值。
为了使所设计的权值满足要求,权值矩阵应符合以下要求:
(a)为保证异步方式工作时网络收敛,W应为对称阵。
(b)为保证同步方式工作时网络收敛,W应为非负定对称阵。
(c)保证给定的样本是网络的吸引子,并且要有一定的吸引域。
具体设计时,这里采用了联立方程法:
以4节点DHNN为例,说明权值设计的联立方程法。
考虑到wij=wji,wii=0,对稳态x(t+1)=x(t)。
对于状态Xa=(1001)T,各节点净输入应满足:
net1=w12×
0+w13×
0+w14×
1−T1=w14−T1>
0
(1)
net2=w12×
1+w23×
0+w24×
1−T2=w12+w24−T2<
0
(2)
net3=w13×
0+w34×
1−T3=w13+w34−T3<
0(3)
net4=w14×
1+w24×
0–T4=w14–T4>
0(4)
对于Xb=(0110)T状态,各节点净输入应满足:
1+w13×
1+w14×
0−T1=w12+w13−T1<
0(5)
0+w23×
0−T2=w23−T2>
0(6)
1+w34×
0−T3=w23−T3>
0(7)
1+w34×
1–T4=w24+w34–T4<
0(8)
联立以上8项不等式,可求出未知量的允许取值范围。
如取w14=0.7,则由式
(1)
有-1≤T1<
0.7,取T1=0.6;
则由式(4)有-1≤T4<
0.7,取T4=0.6;
取w12=0.4,由式(5),有-1≤w13<
0.2,取w13=0.1;
取w24=0.2由式
(2),
有0.6<
T2≤1,取T2=0.8;
由式(6),有0.8<
w23≤1,取w23=0.9;
由式(7),
有−1≤T3<
0.9,取T3=0.4;
由式(3,8),有-1<
w34≤0.3,取w34=0.2。
可以验证,利用这组参数构成的DHNN网对于任何初态最终都将演变到两吸引子Xa=(1001)T和Xb=(0110)T。
整理权值与阈值为:
5、下面给出的训练集由玩具兔和玩具熊组成。
输入样本向量的第一个分量代表
玩具的重量,第二个分量代表玩具耳朵的长度,教师信号为-1表示玩具兔,
教师信号为1表示玩具熊。
(1)用matlab训练一个感知器,求解此分类问题。
(需附上matlab程序)
(2)用输入样本对所训练的感知器进行验证。
对于本题,输入是样本组成的2*8的矩阵,输入节点个数为2,输出由导师信号可知分为两类。
两个输入分量在几何上构成一个二维平面,输入样本可以用该平面上的一个点表示,玩具重量和长度在坐标中标出,可以看出明显分布在两个区域,可以用一条线分开分为两类,在线上方的输出结果应大于0,在线下方的输出结果应小于0。
权向量为2*9的矩阵,输入的第一个权向量权值赋予较小的非零随机数,每一个新的权向量都由上一个权向量调整,下一次循环第1个权向量由第9个权向量来调整。
对于这样的样本线性可分,经过几次调整后就稳定到一个权向量,将样本正确分类的权向量不是唯一的。
具体程序见附件二或者ganzhiqi.m。
输出分类结果如下图所示。
表2.单层感知器训练、分类结果
4
3
图2.感知器在二维平面的分类结果
附件一:
第三题程序
clearall;
%%BP算法初始化
D=[1,-1,-1;
1,-1,-1;
-1,1,-1;
-1,-1,1;
-1,-1,1]'
;
X=[0.75,0.75;
0.75,0.125;
0.25,0.25;
0.25,0.75;
0.5,0.125;
0.75,0.25;
0.25,0.5;
0.5,0.5;
0.75,0.5]'
[N,n]=size(X);
[L,Pd]=size(D);
%M=ceil(sqrt(N*L))+7;
ceil函数为正无穷方向取整
m=14;
%隐层节点数
%初始化权矩阵
%输入层到隐层权矩阵
V=rand(N,m);
%隐层到输出层权矩阵
W=rand(m,L);
%开始训练,转移函数选择双极性Sigmoid函数
Q=100000;
%训练次数计数器
E=zeros(Q,1);
%误差
Emin=0.3;
%训练要求精度
learnr=0.2;
%学习率
q=1;
%训练次数计数,批训练
%%权值调整
whileq<
Q
netj=V.'
*X;
Y=(1-exp(-netj))./(1+exp(-netj));
netk=W.'
*Y;
O=(1-exp(-netk))./(1+exp(-netk));
E(q)=sqrt(sum(sum((D-O).^2))/2);
%计算总误差
ifE(q)<
Emin
break;
end
Delta_o=(D-O).*(1-O.^2)./2;
W=W+learnr*(Delta_o*Y.'
).'
%隐层和输出层间的权矩阵调整
Delta_y=(W*Delta_o).*(1-Y.^2)./2;
V=V+learnr*(Delta_y*X.'
%输入层和隐层间的权矩阵调整
q=q+1;
end
%%输出结果
q
O=sign(O)%符号函数取整
A=find(O~=D);
%和计算输出和导师信号不同的个数
length(A)%分类结果错误的个数
附件二:
第五题程序
clc;
clear
%%单层感知器初始化
X=[1,4;
1,5;
2,4;
2,5;
3,1;
3,2;
4,1;
4,2];
%输入信号
d=[-1;
-1;
1;
1];
%输入导师信号
w=zeros(2,9);
w(:
1)=rand(2,1);
%第一组权值赋予较小的非零随机数
o=zeros(8,1);
%输出结果
net=zeros(8,1);
%净输入net
learnr=0.01;
%学习率为0.1
n=0;
%循环次数
%%调整权值
whilen<
100%训练次数最大设为100次
fori=1:
8
net(i)=X(i,:
)*w(:
i);
%计算净输入net
o(i)=sign(net(i));
%计算输出,转移函数为符号函数
i+1)=w(:
i)+learnr*(d(i)-o(i))*X(i,:
)'
%调整权值
1)=w(:
9);
%最后一组权值赋值给第一组权
n=n+1
ifd==o%如果输出等于导师信号,那么训练停止
break
%%结果输出
x1=[1,1,2,2];
%将两组数据在图中标出
y1=[4,5,4,5];
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工 神经网络 例题