完整版中科院模式识别考题总结详细答案.docx
- 文档编号:23451516
- 上传时间:2023-05-17
- 格式:DOCX
- 页数:37
- 大小:93.09KB
完整版中科院模式识别考题总结详细答案.docx
《完整版中科院模式识别考题总结详细答案.docx》由会员分享,可在线阅读,更多相关《完整版中科院模式识别考题总结详细答案.docx(37页珍藏版)》请在冰豆网上搜索。
完整版中科院模式识别考题总结详细答案
1.简述模式的看法及其直观特点,模式识其余分类,有哪几种方法。
(6’)
答
(1):
什么是模式?
广义地说,存在于时间和空间中可观察的物体,若是我们能够差异它们可否同样或可否相似,都能够称之为模式。
模式所指的不是事物自己,而是从事物获取的信息,因此,模式经常表现为拥有时间和空间分布的信息。
模式的直观特点:
可观察性;可划分性;相似性。
答
(2):
模式识其余分类:
假说的两种获取方法(模式鉴识进行学习的两种方法):
督查学习、看法驱动或归纳假说;
非督查学习、数据驱动或演绎假说。
模式分类的主要方法:
数据聚类:
用某种相似性胸襟的方法将原始数据组织成有意义的和适用的各种数据集。
是一种非督查学习的方法,解决方案是数据驱动的。
统计分类:
基于概率统计模型获取各种其余特点向量的分布,以获取分类的方法。
特点向量分布的获取是基于一个种类已知的训练样本集。
是一种督查分类的方法,分类器是看法驱动的。
结构模式鉴识:
该方法经过考虑鉴识对象的各部分之间的联系来达到鉴识分类的目的。
(句法模式鉴识)
神经网络:
由一系列互相联系的、同样的单元(神经元)组成。
互相间的联系能够在不同样的神经元之间传达增强或控制信号。
增强或控制是经过调整神经元互相间联系的权重系数来(weight)实现。
神经网络能够实现督查和非督查学习条件下的分类。
2.什么是神经网络?
有什么主要特点?
选择神经网络模式应该考虑什么因素?
(8’)
答
(1):
所谓人工神经网络就是基于模拟生物大脑的结构和功能而组成的一种信息办理系统(计算机)。
由于我们建立的信息办理系统实际上是模拟生理神经网络,因此称它为
人工神经网络。
这类网络依靠系统的复杂程度,经过调整内部大量节点之间互相连接的关系,从而达到办理信息的目的。
人工神经网络的两种操作过程:
训练学习、正常操作(回忆操作)。
答
(2):
人工神经网络的特点:
固有的并行结构和并行办理;
知识的分布储藏;
有较强的容错性;
有必然的自适应性;
人工神经网络的限制性:
人工神经网络不适于高精度的计算;
人工神经网络不适于做近似次序计数的工作;
人工神经网络的学习和训练经常是一个困难的过程;
人工神经网络必定战胜时间域次序办理方面的困难;
硬件限制;
正确的训练数据的收集。
答(3):
采用人工神经网络模型,要基于应用的要求和人工神经网络模型的能力间的般配,主要考虑因素包括:
网络大小;
所需输出种类;
联想记忆种类;
训练方法;
时间的限制。
3.画出句法模式识其余框图,并讲解其工作原理。
(8’)
答
(1):
句法模式鉴识框图以下:
答
(2):
句法模式鉴识系统的组成:
图像预办理,图像切割,基元及其关系鉴识,句法解析。
基于描述模式的结构信息,用形式语言中的规则进行分类,能够更典型地应用于光景图片的解析。
由于在这类问题中,所研究的模式平时十分复杂,需要的特点也很多,仅用数值上的特点不足以反响它们的种类。
句法模式鉴识系统办理过程:
基元自己包括的结构信息已不多,仅需少量特点即可鉴识。
若是用有限个字符代表不同样的基元,则由基元按必然结构关系组成的子图或图形能够用一个
有序的字符串来代表。
若是早先用形式语言的规则从字符串中推断出能生成它的文法,则能够经过句法解析,按给定的句法(文法)来鉴识由基元字符组成的句子,从而鉴识它可否属于由该给定文法所能描述的模式类,达到分类的目的。
4.
(1)讲解线性鉴识函数进行模式分类的看法;
(2)既然有了线性鉴识函数,
为什么还要用非线性鉴识函数进行模式分类?
(
3)两类模式,每类包括5个3
维不同样的模式,且优异分布。
若是它们是线性可分的,问权向量最少需要几个
系数重量?
若是要建立二次的多项式鉴识函数,
又最少需要几个系数重量?
(设
模式的优异分布不因模式变化而改变。
)(8’)
答
(1):
模式鉴识系统的主要作用是鉴识各个模式所属的种类。
线性鉴识函数分类就是
使用线性鉴识函数将多类样本模式分开。
一个n维线性鉴识函数的一般形式:
T
d(x)w1x1w2x2Kwnxnwn1w0xwn1
其中w0(w1,w2,...,wn)T称为权向量(或参数向量)
,x
(x1,x2,...,xn)T。
d(x)也可表示为:
d(x)
wTx
其中,x(x1,x2,...,xn,1)T
称为增广模式向量,
w0
(w1,w2,...,wn,wn1)T
称为增广权
向量。
两类情况:
鉴识函数d(x):
0
if
x
d(x)wTx
if
x
0
1
2
多类情况:
设模式可分成1,2,...,M共M类,则有三种划分方法:
多类情况1
用线性鉴识函数将属于i类的模式与不属于i类的模式分开,其鉴识函数为:
d
(x)
wTx
0
if
x
i
i
i
0
if
x
i
这类情况称为
i/
i两分法,即把M类多类问题分成
M个两类问题,因此共有
M个
鉴识函数,对应的鉴识函数的权向量为
wi,i
1,2,...,n1。
多类情况2
采用每对划分,即
i|
j两分法,此时一个鉴识界面只能分开两种种类,但不能够把它
与其余全部的界面分开。
其鉴识函数为:
d
(x)
wTx
若dij(x)
0,
ji
,则x
i
ij
ij
重要性质:
dij
dji
要分开M类模式,共需
M(M-1)/2个鉴识函数。
不确定地域:
若全部
dij(x),找不到
j
i,dij(x)
0的情况。
多类情况
3(多类情况
2的特例)
这是没有不确定区域的
i|
j
两分法。
假若多类情况2中的dij
可分解成:
dij(x)
di(x)
dj(x)
(wi
wj)Tx,则dij
0相当于di(x)
dj(x),ji
。
这时
不存在不确定地域。
此时,
对M类情况应有M个鉴识函数:
dk(x)
wkTx,k
1,2,K,M
即di(x)dj(x)
,
j
i,i,j
1,2,...M
,则xi
,也可写成,若
di(x)
max{dk(x),k
1,2,...,M},则x
i。
该分类的特点是把
M类情况分成M-1个两类问题。
模式分类若可用任一个线性函数来划分,
则这些模式就称为线性可分的,
否则就是非线
性可分的。
一旦线性函数的系数
wk被确定,这些函数即可用作模式分类的基础。
对于M类模式的分类,多类情况1需要M个鉴识函数,而多类情况2需要M*(M-1)/2
个鉴识函数,当M较大时,后者需要更多的鉴识式(这是多类情况2的一个缺点)。
采用多类情况1时,每一个鉴识函数都要把一种类其余模式与其余M-1种类其余模式
分开,而不是将一种类其余模式仅与另一种类其余模式分开。
由于一种模式的分布要比M-1种模式的分布更为齐聚,因此多类情况2对模式是线性
可分的可能性比多类情况1更大一些(这是多类情况2的一个优点)。
答
(2)广义线性鉴识函数出发点:
线性鉴识函数简单,简单实现;
非线性鉴识函数复杂,不简单实现;
若能将非线性鉴识函数变换为线性鉴识函数,则有利于模式分类的实现。
采用广义线性鉴识函数的看法,能够经过增加维数来获取线性鉴识,但维数的大量增加会使在低维空间里在解析和计算上行得通的方法在高维空间遇到困难,增加计算的复杂性。
因此某些情况下使用非线性鉴识函数或分段线性鉴识函数收效更好。
解(3)假设该两类模式是线性可分的,则在三维空间中一个线性平面能够将这两类模式分开,因此鉴识函数能够写成:
d(x)w1xw2xw3xw4
因此权向量需要4个系数。
对于n维x向量,采用r次多项式,d(x)的权系数w的项数为:
Nw
Cnr
r
(nr)!
r!
n!
当r=2,n=3时,
(n
2)!
(n
2)(n1)
NW
10
2!
n!
2
因此,此时权向量需要
10个系数重量。
5.设一有限态自动机A({0,1},{q0,q1,q2},
q0,q2},
定义以下:
(q0,0)
q2,(q1,0)
q2,(q2,0)
q2
(q0,1)
q1,(q1,1)
q0,(q2,1)
q1
试求等价的正则文法,使得L(G)=T(A)。
(10’)
解:
设由A得一正则文法
(
,),则
,
,
G
VN
VT
PS
VN{S,x1,x2}VT
{0,1}Sq0
由(q0,1)
q1,得生成式S
1x1
由
(q0,0)
q2,得生成式S
0,S
0x2
由(q1,1)
q0,得生成式x1
1S
由
(q1,0)
q2,得生成式x1
0,x1
0x2
由
(q2,1)
q1,得生成式x2
1x1
由
(q2,0)
q2,得生成式x2
0,x2
0x2
比较实例:
当扫描字符串1110
时,A按以下状态序列接受该字符串
1
q1
1
q0
1
q1
0
q2
q0
用对应的正则文法
G推导,得:
S
1x1
11S
111x1
1110
按有限态自动机确定正则文法
给定一个有限态自动机
A(
Q,
q0,F),可确定一个正则文法
G(VN,VT,P,S),
使得L(G)=T(A)。
由Q
{q0,q1,...,qn,qn1},qn
1F
,可确定:
VN
{S,x1,x2,...,xn,xn1},Sq0,
xiqi,VT
。
从
求G中的生成式P可按以下原则:
(1)
若
(qi,a)
qj,则xi
axj
(2)
若
(qi,a)
qn
1,则xi
a,xi
axn1
6.K-均值算法聚类:
K=2,初始聚类中心为x1,x2,数据为:
(10’)
{x1
(0,0),x2
(1,0),x3
(0,1),x4
(1,1),x5
(8,7)
x6
(9,7),x7
(8,8),x8
(9,8),x9
(8,9),x10
(9,9)}
算法:
第一步:
选
K个初始聚类中心,
z1
(1),z2
(1),...,zk
(1),其中括号内的序号为搜寻聚类
中心的迭代运算的次序号。
可选开始的
K
个模式样本的向量值作为初始聚类
中心。
第二步:
逐个将需分类的模式样本
{x}按最小距离准则分配给
K个聚类中心中的某一
个zj
(1)。
即Dj
(k)min{x
zi
(k),i
1,2,LK},则x
Sj(k),其中k
为迭代运算的次序号,第一次迭代
k
1
,Sj表示第j个聚类,其聚类中心为
zj。
第三步:
计算各个聚类中心的新的向量值,
zj
(k
1),j
1,2,...,K
求各聚类域中所包括样本的均值向量:
zj(k
1
x,
j
1,2,L
K
1)
Nj
xSj(k)
其中Nj为第j个聚类域Sj中所包括的样本个数。
以均值向量作为新的聚
类中心,可使以下聚类准则函数最小:
2
Jj
xzj
(k1)
j
1,2,L
K
xSj(k)
在这一步中要分别计算
K个聚类中的样本均值向量,
因此称之为K-均值算
法。
第四步:
若zj(k1)
zj(k),则返回第二步,将模式样本逐个重新分类,重复迭代
运算;
若zj(k1)zj(k),则算法收敛,计算结束。
6.给出两类模式分布,每一列代表一个样本:
1
:
x1
5
5
4
5
6
5
4
5
6
5
2
:
x2
5
5
6
5
4
5
6
5
4
5
试用K-L变换来做一维特点的提取(12’)。
解:
第一将全部样本看作一个整体,求出样本均值向量:
m
1
5
x1j
1
5
5j
x2j0
1
5j1
由于均值为
0,吻合K-L变换的最正确条件。
若是均值不为
0,则全部样本要减去均值向
量。
由于1和2的样本数同样,因此认为他们的先验概率同样,即:
P
(1)P
(2)
求出整体的自相关矩阵
R或协方差矩阵
C:
2
T
25
R
P(
)E{xx
}
i
i
1
i
i
25
解特点方程RI
0,求出R的特点值:
1
50.4,
2
求出对应于特点值的特点向量
Ri
i
i:
1
1
1
1
1
2
1
2
2
1
采用
1对应的特点向量作为变换矩阵
,由y
Tx得出变换后的一维模式:
10
9
9
11
11
1
:
x1'
2
2
2
2
2
10
11
11
9
9
2
:
x2'
2
2
2
2
2
8.用第二类势函数的算法进行分类(10’)
选择指数型势函数,取α=1,在二维情况下势函数为:
xx
k
2
[(x1xk
)2(x
2
xk
)2]
K(x,xk)e
e
1
2
这里:
ω1类为x①=(00)T,x②=(20)T;ω2
类为x③=(11)T,x④=(1-1)T
解:
能够看出,这两类模式是线性不能分的。
算法步骤以下:
第一步:
取x
(1)
(0,0)T
1,则
K1(x)K(x,x
(1))
exp{[(x1
0)2
(x2
0)2]}exp[(x12
x2
2)]
第二步:
取x
(2)
(2,0)T
1
因exp[
(4
0)]
exp(
4)
0,
故K2(x)
K1(x)
exp[
(x1
2
x2
2)]
第三步:
取x(3)(1,1)T2
因exp[(11)]exp
(2)
0,
故
K3(x)K2(x)K(x,x(3))exp[(x12x22)]exp{[(x11)2(x21)2]}
⋯⋯
后边同理,就是不断将本入,若是分正确,函数保持不,即:
Kk1(x)
Kk(x)
若是分,有两种情况:
x(k1)
1,Kk(x(k1))
0
,Kk
1(x)
Kk(x)
K(x,x(k1))
x(k1)
2,Kk(x(k1))
0,Kk
1(x)
Kk(x)
K(x,x(k1))
迭代,全部模式都已正确分,因此算法收于判函数。
得出:
d(x)e
(x2
x
2)
e
[(x1)
2(x
1)
2]
e
[(x1)2(x
1)2]
e
[(x2)2
x
2
]
1
2
1
2
1
2
1
2
9.有一种病,正常为1,不正常为2,已知:
P
(1)0.9,P
(2)
现对某人进行检查,结果为x,由概率曲线查出:
P(x|1)0.2,P(x|2)
风险代价矩阵为:
L11
L12
0
6
L
L22
1
0
L21
对该检查者进行判决:
(1)用贝叶斯最小错误概率鉴识,求出判决函数和决策分界面。
(2)用贝叶斯最小风险鉴识,求出鉴识函数和决策分界面。
解
(1):
P(
1|x)
P(
1)P(x|
1)
P(
2|x)
P(
2)P(x|
2)
由于
P(x|
1)
1
P
(2)1
l
2
P
(1)9
P(x|2)
因此x1。
解
(2):
2
rj(x)
LijP(x|i)P(i),j1,2
i
1
由于
P(x|
1)
1
P(
2)L21
L22
1
l'
2)
2
P(
1)L12
L11
54
P(x|
因此x1。
10.阐述误差反传算法(BP算法)的原理,并写出其训练步骤。
答
(1):
BP算法计算过程:
当加入第k个输入时,隐蔽层h结点的输入加权和为:
sk
wxk
h
ihi
i
若是令第一层的加权矩阵为W1,则还可以够表示为:
shkW1Txk
相应节点的输出为:
yhkF(shk)F(wihxik)
i
写成矩阵形式为:
yhkF(shk)F(W1Txk)
同样,输出层j结点的输入加权和为:
skjwhjyhkwhjF(wihxik)
hhi
令第二次的加权矩阵为W2,则能够写成:
skjW2TyhkW2TF(W1Txk)
相应点的输出:
ykjF(skj)F(whjyhk)F[whjF(wihxik)]
hhi
写成矩阵形式为:
ykjF(W2TF(W1Txk))
这里,各结点的阈值等效为一个连接的加权w0h或w0j,这些连接由各结点连到具
有固定值-1的偏置结点,其连接加权也是可调的,同其余加权同样参加调治过程。
误差函数为:
E(W)
1
(Tjk
ykj)21
{Tjk
F[whjF(wihxik)]}2
2k,j
2k,j
h
i
为了使误差函数最小,用梯度下降法求得最优的加权,权值先从输出层开始修正,尔后依次修正前层权值,因此含有反传的含义。
依照梯度下降法,由隐蔽层到输出层的连接的加权调治量为:
whj
E
(Tjk
ykj)F(skj)yhk
jkyhk
whj
k
k
其中jk为输出结点的
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 完整版 中科院 模式识别 考题 总结 详细 答案