模糊神经网络控制与自适应神经网络Word格式文档下载.docx
- 文档编号:14566830
- 上传时间:2022-10-23
- 格式:PPS
- 页数:47
- 大小:1.03MB
模糊神经网络控制与自适应神经网络Word格式文档下载.docx
《模糊神经网络控制与自适应神经网络Word格式文档下载.docx》由会员分享,可在线阅读,更多相关《模糊神经网络控制与自适应神经网络Word格式文档下载.docx(47页珍藏版)》请在冰豆网上搜索。
第三层节点称为规则节点,用来实现模糊逻第三层节点称为规则节点,用来实现模糊逻辑推理。
其中第三、四层节点间的连接系数辑推理。
其中第三、四层节点间的连接系数定义规则节点的结论部、第二、三层节点间定义规则节点的结论部、第二、三层节点间的连接系数定义规则节点的条件部。
的连接系数定义规则节点的条件部。
7/47第一层第一层这一层的节点只是将输入变量值直接传送到这一层的节点只是将输入变量值直接传送到下一层。
所以,下一层。
所以,且输入变量与第一层节点之间的连接系数且输入变量与第一层节点之间的连接系数wji
(1)=1。
fuafjjjj()()()(),8/47第二层第二层实现语言值的隶属度函数变换,可选取钟型实现语言值的隶属度函数变换,可选取钟型函数函数其中:
其中:
mji和和ji分别表示第分别表示第i个输入语言变个输入语言变量量Xi的第的第j个语言值隶属度函数的中心值和个语言值隶属度函数的中心值和宽度。
可抽象看作第一、二层神经元节点之宽度。
可抽象看作第一、二层神经元节点之间的连接系数间的连接系数wji
(2)。
fMmumaejXjjijiijijijfij()()()()()()()(,)()(),()22222222229/47第三层第三层完成模糊逻辑推理条件部的匹配工作。
由最完成模糊逻辑推理条件部的匹配工作。
由最大、最小推理规则可知,规则节点实现的功大、最小推理规则可知,规则节点实现的功能是模糊“与”运算。
能是模糊“与”运算。
fj(3)=min(u1(3),u2(3),.,up(3),aj(3)=fj(3)且第二层节点与第三层节点之间的连接系数wji(3)=110/47第四层第四层有两种模式有两种模式从上到下的传输模式时,与第二层相同,实从上到下的传输模式时,与第二层相同,实现模糊化的功能。
现模糊化的功能。
从下到上的传输模式中,实现的是模糊逻辑从下到上的传输模式中,实现的是模糊逻辑推理运算推理运算。
根据最大、最小推理规则,是模。
根据最大、最小推理规则,是模糊“或”运算:
糊“或”运算:
fj(4)=max(u1(4),u2(4),.,up(4),aj(4)=fj(4)且第三、四层节点之间的连接系数且第三、四层节点之间的连接系数wji(4)=11/47第五层第五层有两种模式有两种模式从上到下的信号传输方式,同第一层。
从上到下的信号传输方式,同第一层。
从下到上是精确化计算,如果采用重心法,从下到上是精确化计算,如果采用重心法,有有则第四层节点与第五层节点之间的连接系数则第四层节点与第五层节点之间的连接系数wji(5)可以看作是可以看作是mji(5)ji(5)。
fwumuafujjiijijiiijjjiii()()()()()()()()()()(),12/477.1.1神经网络与模糊控制系统7.1.2模糊神经网络的学习算法7.1模糊神经网络控制13/47混合学习算法混合学习算法第一阶段,使用自组织学习方法进行各语言第一阶段,使用自组织学习方法进行各语言变量语言值隶属度函数的初步定位以及尽量变量语言值隶属度函数的初步定位以及尽量发掘模糊控制规则的存在性(即可以通过自发掘模糊控制规则的存在性(即可以通过自组织学习删除部分不可能出现的规则)组织学习删除部分不可能出现的规则)在第二阶段,利用有导学习方法来改进和优在第二阶段,利用有导学习方法来改进和优化期望输出的各语言值隶属度函数。
化期望输出的各语言值隶属度函数。
14/471.自组织学习阶段自组织学习阶段问题描述:
问题描述:
给定一组输入样本数据给定一组输入样本数据xi(t),i=1,2,.,n、期望、期望的输出值的输出值yi(t),i=1,2,.,m、模糊分区、模糊分区T(x)和和T(y)以及期望的隶属度函数类以及期望的隶属度函数类型(即三角型、钟型等)。
型(即三角型、钟型等)。
学习的目的是找到隶属度函数的参数和系统学习的目的是找到隶属度函数的参数和系统实际存在的模糊逻辑控制规则。
实际存在的模糊逻辑控制规则。
15/47隶属度函数参数的获取隶属度函数参数的获取中心值中心值mi的估计:
的估计:
Kohonen自组织映射法自组织映射法宽度值宽度值i是与重叠参数是与重叠参数r以及中心点以及中心点mi邻域邻域内分布函数值相关。
内分布函数值相关。
16/47Kohonen自组织映射法自组织映射法一种自组织学习。
经过一段时间的学习后,一种自组织学习。
经过一段时间的学习后,其权值的分布可以近似地看作输入随机样本其权值的分布可以近似地看作输入随机样本的概率密度分布。
学习过程是一个的概率密度分布。
学习过程是一个Winner-take-all的过程,具体如下:
的过程,具体如下:
)()(min)()(1tmtxtmtxikiclosestmcloest(t+1)=mcloest(t)+(t)x(t)-mcloest(t)mi(t+1)=mi(t)当mi(t)mcloest(t)k=T(x)表示语言变量x语言值的数目17/47宽度宽度i的计算的计算通过求下列目标函数的极小值来获取,即:
通过求下列目标函数的极小值来获取,即:
其中其中r为重叠参数。
为重叠参数。
也可以采用一阶最近邻域法近似:
22121rmmENiNjijinearest18/47推理规则的确定推理规则的确定即确定第三层规则节点和第四层输出语言值即确定第三层规则节点和第四层输出语言值节点之间的连接关系。
节点之间的连接关系。
采用竞争学习获得采用竞争学习获得记记o(3)i(t)为规则节点的激励强度、为规则节点的激励强度、o(4)i(t)为为第四层输出语言值节点输出,则第四层输出语言值节点输出,则wtowtoijjiji()()()()19/47规则删除规则删除仅保留规则节点与同一输出语言变量的所有仅保留规则节点与同一输出语言变量的所有语言值节点的连接系数最大的那个连接关系语言值节点的连接系数最大的那个连接关系,将其余的连接关系删除。
,将其余的连接关系删除。
当某一规则节点与某一输出语言变量所有语当某一规则节点与某一输出语言变量所有语言值节点之间的连接系数都非常小时,则所言值节点之间的连接系数都非常小时,则所有的连接关系都可以删除。
有的连接关系都可以删除。
如果某一规则节点与第四层中的所有节点的如果某一规则节点与第四层中的所有节点的连接系数都很少而被删除的话,则该规则节连接系数都很少而被删除的话,则该规则节点对输出节点不产生任何影响。
因此,该规点对输出节点不产生任何影响。
因此,该规则节点可以删除。
则节点可以删除。
20/47规则合并规则合并合并的条件合并的条件该组节点具有完全相同的结论部该组节点具有完全相同的结论部(如图如图7-2中输出变量中输出变量yi中的第二个语言值节点中的第二个语言值节点);
在该组规则节点中某些条件部是相同的在该组规则节点中某些条件部是相同的(如如图图7-2中输入变量中输入变量x0中的第一个语言值节点中的第一个语言值节点的输出与该组规则节点全部相连的输出与该组规则节点全部相连);
该组规则节点的其它条件输入项包含了所有该组规则节点的其它条件输入项包含了所有其它输入语言变量某一语言值节点的输出。
其它输入语言变量某一语言值节点的输出。
21/47图图7-2:
规则节点合并示例规则节点合并示例22/472.有导师学习阶段有导师学习阶段可采用可采用BP学习学习min)t(y)t(y(21E2)wE()t(w)1t(wEwEnetnetwEffwEffaaw()()23/47第五层第五层反向传播到上一层的广义误差反向传播到上一层的广义误差(5)为为iijiijijijjjjjiuutytymffaaEmE)5()5()5()5()5()5()5()5()5()5()()
(2)5()5()5()5()5()5()5()5()5()5()5()5()5()5()5()5()()()()()(iijiiiijijiiijiijijijjjjjiuuumuumtytyffaaEE)()()5()5()5()5()5(tytyfaaEfE24/47第四层第四层没有任何参数进行更新。
唯一需要做的是实没有任何参数进行更新。
唯一需要做的是实现误差的反向传播计算。
现误差的反向传播计算。
2)5()5()5()5()5()5()5()5()5()5()5()5()5()5()5()5()5()4()5()5()5()5()4()5()5()4()4()()()()()(iijiijjijijiiijijjjjiijiiijijijjjjjjjjjjjjuumumtytyuumufEfuuffEfffEfE25/47第三层第三层与第四层相似与第四层相似如果输出语言变量有如果输出语言变量有m个,则个,则)4()3()4()4()3()4()4()3()3()3()3()3(jijjjjjjjjjjufaffEfaaEfEmkkj1)4()3(26/47第二层第二层qk(3)=k(3)当当aj
(2)是第是第k个规则节点输入值中的最小值时;
个规则节点输入值中的最小值时;
qk(3)=0其它情况下。
其它情况下。
2)2()2()2()2()2()2()2()2()2()2()()
(2)2(jijiifjjijjjjjimueaEmffaaEmEj)2()3()3()2()3()3()2(jkkkjkkkjafaffEaEotherwiseuuufifufafjkjkjk0,.),min
(1)3
(2)3
(1)3()3()3()3()2()3(kkjqaE)3()2(27/47第二层学习公式第二层学习公式mtmtEaeumjijijfijijij()()()()()()()()()()()2222222122jijijfijijittEaeumj()()()()()()()()()()()28/47整个学习流程整个学习流程29/477.1模糊神经网络控制7.2基于神经元网络的自适应控制7.3*自适应神经网络结构学习目录目录30/47基于神经元网络的自适应控制基于神经元网络的自适应控制神经网络控制器完全满足自适应控制的要素神经网络控制器完全满足自适应控制的要素在线、实时地了解对象;
有一个可调节环节;
能使系统性能达到指标要求和最优。
常规的神经网络控制器本身也具有一定的自常规的神经网络控制器本身也具有一定的自适应能力。
适应能力。
31/47设计思想设计思
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 模糊 神经网络 控制 自适应