人工智能期末复习资料.docx
- 文档编号:12833807
- 上传时间:2023-04-22
- 格式:DOCX
- 页数:13
- 大小:22.56KB
人工智能期末复习资料.docx
《人工智能期末复习资料.docx》由会员分享,可在线阅读,更多相关《人工智能期末复习资料.docx(13页珍藏版)》请在冰豆网上搜索。
人工智能期末复习资料
-构成推理的两个要素为:
已知事实(证据)和知识。
第四章不确定性推理方法
-不确定性分为:
知识不确定性和证据不确定性。
-可信度是根据经验对一个事物或现象为真的相信程度。
-可信度带有较大的主观性和经验性,其准确性难以把握。
-由于相应证据的出现増加结论H为真的可信度,则CF(HE)>0,证据的出现越支持H为真.就使CF(H,E)的值越大;反之,CF(H,E)<0,证据的出现越是支持H为假,CF(H.E)的值就越小。
若证据的出现与否与H无关,则CF(H,E)二0。
-静态强度CF(H.E):
知识的强度.即当E所对应的证据为真时对H的影响程度;
动态强度CF(E):
证据E当前的不确定性程度。
-概率分配函数与概率不同。
-模糊性:
客观事实在性态与类属方面的不分明性。
-模糊集合完全由其隶属函数确定,即一个模糊集合与其隶属函数是等价的。
-模糊推理控制系统的功能结构:
(输入)-〉模糊化->模糊规则库->推理方法->去模糊化(输出)
-模糊控制系统的核心是:
模糊控制器。
-不确定性及其类型?
1•不确定性;2.不确切性;3不完全性;4•不一致性;
-在确定一种度量方法及其范围时,应当注意到哪几点?
1•度量要能充分表达相应知识及证据的不确定性程度;
2•度量范围的指定要便于领域专家及用户对不确定性的估计;
3度量要便于对不确定性的传递进行计算,而旦对结论算出的不确定性度量不能超出度量规定的范围;
4•度量的确定应当是直观的,同时要有相应的理论依据
-经典概率方法与逆概率方法的比较
经典概率方法的缺点:
用于简单的不确定推理,只考虑了证据的“真”“假"情况;
逆概率方法优点:
较强的理论背景和良好的数学特征,当证据和结论都彼此独立时计算的复杂度较低;缺点:
要求给出结论Hi的先验概率和证据的条件概率;
-主观Bayes方法的优缺点
优点:
1•具有较坚强的理论基础;
2•知识的静态强度LS与LN是由领域专家根据实践经验得出的,推出的结论有较准确的确定性;
3主观Bayes方法是一种比较实用且灵活的不确定性推理方法;
缺点:
1•要求领域专家给出知识时同时给出H的先验概率;
2.Bayes定理中关于事件独立性的要求使此方法的应用受到了限制。
-求先验概率的方法主要包括:
1•根据大量实验样本分布得出的实验概率;
2•利用等可能性事件概率相等的原则得出古典概率;
3基于人的主观感觉得出的主观概率。
第五章搜索求解策略
-搜索方向分为:
数据驱动、目的驱动、双向搜索。
-只能按照预先规定的搜索控制策略进行搜索,没有任何中间信息来改变这些控制策略的搜索叫:
盲目的图搜索策略。
-常用的盲目的图搜索策略方法有广度优先搜索和深度优先搜索以及这两种搜索方法的改良方法。
-盲目的图搜索策略具有盲目性,效率不高,不便于复杂问题的求解。
-先扩展搜索树的当前边缘中最深的节点的搜索方法是:
深度优先搜索。
-深度有限搜索:
预先设定一个搜索深度I,缺点:
増加了算法的不完备性。
-借助问题的特定知识来帮助选择搜索方向叫做启发式搜索,也称为有信息搜索。
-在启发式搜索中估价函数是搜索成败的关键。
-贪婪搜索既不是完备的,也不是最优的。
-A*算法也具有完备性和最优性。
(当h(n)<=h*(n)时)
-遗传算法中,适应度函数值越大,解的质量越好。
-搜索过程中需要解决哪几个基本问题?
1•是否一定能找到一个解;
2•找到的解是否是最佳解;
3时间与空间复杂性如何;
4•是否终止运行或是否会陷入一个死循环。
-宽度优先搜索的优缺点?
优点:
1.完备性:
如果问题有解,广度优先搜索总能够在有限步内找到目标节点;
2.最优性:
在不考虑路径成本的前提下,广度优先搜索总能够找到最浅的目标节点;
缺点:
遍历各个节点,搜索效率差,消耗大量内存和时间。
第六章进化算法及其应用
-进化算法主要通过軽、重组和变异这三种操作实现优化问题的求解。
-进化算法是一个“算法簇",包括遗传算法(GA)、遗传规划、进化策略和进化规划
等。
-进化算法的基本框架是遗传算法所描述的框架。
-遗传算法的五个基本要素?
1•参数编码;2•初始群体的设定;3适应度函数的设计;4•遗传操作设计;5.控制参数设定。
-编码
1•位串编码:
(1)二进制编码
(2)Gray编码。
2•实数编码。
-个体选择概率分配方法:
1•适应度比例方法;2排序方法(线性排序与非线性排序)
-选择个体方法:
1•转盘赌选择;2.竞标赛选择;3……选择;4.Boltzmann锦标赛选择;5.最佳个体保存方法。
-基本的交叉算子
1.一点交叉;2.二点交叉;3均匀交叉(一致交叉)
-实数编码的交叉方法
1•离散交叉;2.算术交叉;
-整数编码的编译方法
1•位点变异;2.逆转变异;3插入变异;4•互换变异;5•移动变异;6•自适应变异
-实数编译的编译方法
1•均匀性变异;2.正态性变异;3非一致性变异;4•自适应变异
-遗传算法的一般步骤
(1)使用随机方法或者其它方法,产生一个有N个染色体的初始群体;
(2)计算群体中的每一个染色体适应值;
(3)若满足停止条件,则算法停止;否则’重新构建新种群;
(4)交叉产生新的染色体得到新的群体;
(5)使染色体的一个基因发生变异,形成新的群体。
-遗传算法的特点
1•可直接对结构对象进行操作。
2•利用随机技术指导对一个被编码的参数空间进行高效率搜索。
3采用群体搜索策略,易于并行化。
4•仅用适应度函数值来评估个体.并在此基础上进行遗传操作,使种群中个体之间进行信息交换。
-双种群遗传算法的基本思想:
在遗传算法中使用多种群同时进化,并交换种群之间优秀个体所携带的遗传信息,以打破种群内的平衡态达到更高的平衡态,有利于算法跳出局部最优。
-差分进化算法的基本要素:
参数编码
初始群体的产生
适应度函数的设计
差分操作设计
控制参数设置
-适应度函数在遗传算法中的作用是什么?
试举例说明如何构造适应度函数。
适应度函数:
怎样根据目标函数构建适应度函数。
适应度函数(FitnessFunction)的选取直接影响到遗传算法的收敛速度以及能否找到最优解,因为遗传算法在进化搜索中基本不利用外部信息,仅以适应度函数为依据,利用种群每个个体的适应度来进行捜索•因为适应度函数的复杂度是遗传算法复杂度的主要组成部分,所以适应度函数的设计应尽可能简单,使计算的时间复杂度最小。
第七章群智能算法及其应用
-粒子群优化算法的流程:
(1)初始化每个粒子,即在允许范围内随机设置每个粒子的初始位置和速度。
(2)评价每个粒子的适应度,计算每个粒子的目标函数。
(3)设置每个粒子的Pio对每个粒子,将其适应度与其经历过的最好位置进行比较,如果优于Pi,则将其作为该粒子的最好位置PlO
(4)设置全局最优值Pg。
对每个粒子,将其适应度与群体经历过的最好位置Pg进行比较,如果优于Pg,则将其作为当前群体的最好位置Pg。
(5)根据式(7.1)更新粒子的速度和位置。
(6)检查终止条件。
如果未达到设定条件(预设误差或者迭代的次数),则返回
第
(2)步。
-量子粒子群优化算法
(1)确定种群规模和粒子维数,初始化粒子群体。
(2)计算个体历史最优值(pbest):
根据适应度函数计算每一个微粒的适应度值,通过和个体的历史最优值比较,如果当前值优于个体历史最优值,则把当前值替换为个体最优值(pbest),否则不替换。
(3)计算群体的历史最优值(gbest):
计算所有微粒的适应值,并与当前的全局最优值(gbest)比较,若当前值优于全局最优值,则把当前值替换为全局最优值(gbest)。
⑷计算所有粒子的重心(mbest);根据公式(7.5)来更新所有粒子的重心(mbest)。
(5)根据量子粒子群进化方程(7.9)更新每个粒子的位置,产生新的种群。
(6
)粒子适应度满足收敛条件或者是达到最大迭代次数,则算法结束,否则跳转到步骤2继续迭代执行。
-PSO算法的参数
包括:
群体规模m,惯性权重3,加速度(pl,(p2,最大加速度Vmax,最大代数GmaXo
(P1=(P2=0:
粒子将一直以当前的速度飞行,直至到达边界;由于它智能搜索有限的区域,所以很难找到好解。
3二0:
速度只取决于粒子当前位置和其历史最好位置Pi,Pg,速度本身没有记忆性。
二0:
粒子没有认知能力,“只有社会模型";在粒子的互相作用下,有能力达到新的搜索空间,但对复杂问题,容易陷入局部最优解。
(P2二0:
粒子间没有社会共享信息,也就是“只有认知模型"。
因为个体间没有交互,—个规模为M的群体等价于M个单个粒子的运行,因而得到最优解的几率非常小。
-基本量子粒子群优化算法
优点:
相对于粒子群优化算法具有更好的收敛性和全局搜索能力。
缺点:
求解约束优化问题时
(1)会产生大量的不可行解;
(2)破坏种群的多样性;
(3)导致算法陷入局部极值。
-基本蚁群算法基本思想
信息素跟踪:
按照一定的概率沿着信息素较强的路径觅食;
信息素遗留:
走过的路上释放信息素,使得在一定的范围内的其他蚂蚁能够察觉到并由此影响他们的行为。
-自适应蚁群算法,判断是否发生局部收敛
当连续几代最优蚂蚁搜索得到的路径相同时,算法即陷入了局部收敛;
当连续几代的最优蚂蚁爬行路径总长度相同时算法陷入了局部最优。
第八章人工神经网络及其应用
-决定人工神经网络的三大因素
1•神经元的特性;
2•神经元之间相互连接的形式——拓扑结构;
3为适应环境而改善性能的学习规则。
-神经网络的结构分为前馈型和反馈型。
-神经网络的工作方式分为同步方式和异步方式。
-BP神经网络的工作过程
1•第一阶段(网络训练阶段);
2•第二阶段(工作阶段)。
-BP算法的计算机实现流程:
1.初始化:
对所有连接权的阈值赋以随机任意小值;
2•从N组输入输出样本中取一组样本,把输入信息输入到BP网络中;
3正向传播:
计算各层节点的输出;
4•计算网络的实际输出与期望输出的误差;
5•反向传播:
从输出层方向计算到第一个隐层,按连接权值修正公式向减小误差方向调整网络的各个连接权值;
6•让取出另一组样本重复
(2)——(5),直到N组输入输出样本的误差达到要求时为止。
-BP算法的特点
1.BP网络:
多层前向网络(输入层、隐层、输出层)。
2•连接权值:
通过Delta学习算法进行修正。
3•神经元传输函数:
S形函数。
4•学习算法:
正向传播、反向传播。
5•层与层的连接是单向的,信息的传播是双向的。
-BP网络的优缺点
优点:
很好的逼近特性、较强的泛化能力、较好的容错性;
缺点:
收敛速度慢、局部极值、难以确定隐层和隐层结点的数目。
-离散Hopfield神经网络模型的工作过程
初态(记忆样本的部分信息)通过记忆联想到稳态(记忆样本)。
-网络的稳定性:
从某一时刻开始,网络中所有的神经元的状态不再改变
-混沌的性质:
随机性、普遍性、规律性。
-神经网络优化计算目前存在的问题:
(1)解的不稳定性。
(2)参数难以确定。
(3)能量函数存在大量局部极小值,难以保证最优解。
-卷积神经网络减少参数的方法有亘部连接和权值共享。
-计算图像一个区域上的某个特定特征的平均值(或最大值),这种聚合操作就叫做池化.有时采用平均池化或者最大池化方法。
-CNN的优缺点
优点:
1•隐式地从训练数据中进行学习,避免了显式的特征抽取;
2•同一特征映射面上的神经元共享权值,网络可以并行学习,降低了网络学习的复杂性;
3采用时间或者空间的下采样结构,可以获得某种程度的位移、尺度、形变的鲁
棒性;
4•输入信息和网络拓扑结构能很好地吻合,在语音识别和图像处理方面有着独特优势。
缺点:
1.CNN的结构参数.无论是卷积层、下采样层还是分类层,都有太多的随意性或试凑性,且不能保证拓扑结构参数收敛。
2•重点放在由细尺度特征到大尺度特征的层层提取.只有前馈没有反馈。
已有的认知不能帮助当前视觉感知和认知,没有体现选择性注意。
3要求海量训练样本,样本的均等性没有反映认知的积累性。
第九章机器学习
-机器学习的主要研究内容:
学习机理、学习方法、学习系统。
-机器学习系统的条件和能力
(1)具有适当的学习环境
(2)具有一定的学习能力
(3)能应用学到的知识求解问题
(4)能提高系统的性能
-机器学习的分类
(1)按学习方法分类:
机器式学习、指导式学习、示例学习、类比学习、解释学习;
(2)按学习能力分类:
监督学习、强化学习、非监督学习;
(3)按推理方式分类:
基于演绎的学习、基于归纳的学习;
(4)按综合属性分类:
归纳学习、分析学习、连接学习以及遗传法等。
-连接学习:
模拟人类较低级的神经活动符号学习:
模拟人类的高级思维活动
-机械式学习:
通过直接记忆或者存储外部环境所提供的信息达到学习的目的,并在以后通过对知识库的检索得到相应的知识直接用来求解问题。
实质:
用存储空间来换取处理时间。
-指导式学习:
由外部环境向系统提供一般性的指示或建议,系统把它们具体转化为细节知识并送入知识库。
在学习过程中反复地对形成的知识进行评价,使其不断完善。
1•征询指导者的指示或建议。
简单征询、复杂征询、被动征询、主动征询。
2•把侦讯意见转换为可执行的内部形式
3加入知识库
4•评价
-归纳学习
1•枚举归纳;2.联想归纳;3类比归纳;4•逆推力归纳;5•消除归纳;
演绎推理与归纳推理的比较
演绎推理:
从一般到个别,必然性,结论不会超出前提所断定的范围,不能获取新知识;
归纳推理:
从个别到一般,或然性,结论适用于更大的范围,可获取新知识。
-示例学习
从外部环境中获取若干与某概念有关的例子,经归纳得出一般性概念。
-观察学习:
用于对事例进行概念聚类,形成概念描述。
-发现学习:
用于发现规律,产生定律或规则。
-知识发现的一般过程
数据准备、数据挖掘、结果的解释和评估
-知识发现的任务
数据总结、概念描述、分类、聚类、相关性分析、偏差分析、建模
-深度学习
—种基于无监督特征学习和特征层次结构的学习方法。
核心:
使用一种通用的学习过程从数据中学习各层次的特征,而不是手工设计特征提取器。
机构:
简单模块的多层栈,以及许多计算非线性输入输出的映射。
优点:
通过学习一种深层非线性神经网络结构,实现复杂函数逼近,表征输入数据分布式表示。
3类深度神经网络:
前馈深度网络,反馈深度网络,双向深度网络。
-神经学习vs神经网络
相同点:
二者均采用分层结构,系统包括输入层、隐层(多层)、输出层组成的多层网络,只有相邻层节点之间有连接,同一层以及跨层节点之间相互无连接,每一层可以看作是一个logistic回归模型。
神经网络:
采用BP算法调整参数,即采用迭代算法来训练整个网络。
随机设定初值,计算当前网络的输出,然后根据当前输出和样本真实标签之间的差去改变前面各层的参数,直到收敛;
深度学习:
采用逐层训练机制。
采用该机制的原因在于如果采用BP机制,对于—个deepnetwork(7层以上),残差传播到最前面的层将变得很小,出现所谓的gradientdiffusion(梯度扩散)。
-深度学习不采用BP的原因
BP算法随机设定初始值,当初始值远离最优区域时易收敛至局部最小;
对于一个深度网络(7层以上),误差校正信号传播到最前面的层已经变得太小,出现所谓的梯度扩散(gradientdiffusion);
BP算法需要有标签数据来训练,但大部分数据是无标签的;
-自下而上的无监督学习——特征学习
自上而下的监督学习——调优
-深度学习存在的问题
1.缺乏理论支持;2.缺乏推理能力;3缺乏短时记忆能力;4缺乏无监督学习的能力;
-深度学习在应用上的困难
1•深度神经网络模型复杂,训练数据多,计算量大
2•如何支持大模型
3.深度神经网络训练收敛难,需要反复多次实验。
-RBM的作用对数据进行编码,然后由监督学习方法进行分类或回归。
得到权重矩阵和偏移量,供BP神经网络初始化训练。
作为一个生成模型使用:
估计联合概率
作为一个判别模型使用:
计算条件概率
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工智能 期末 复习资料