模式识别试题库docWord文档格式.docx
- 文档编号:20468008
- 上传时间:2023-01-23
- 格式:DOCX
- 页数:26
- 大小:466.45KB
模式识别试题库docWord文档格式.docx
《模式识别试题库docWord文档格式.docx》由会员分享,可在线阅读,更多相关《模式识别试题库docWord文档格式.docx(26页珍藏版)》请在冰豆网上搜索。
1.25一个模式识别系统由那几部分组成?
画出其原理框图。
1.26统计模式识别中,模式是如何描述的。
1.27简述随机矢量之间的统计关系:
不相关,正交,独立的定义及它们之间的关系。
1.28试证明,对于正态分布,不相关与独立是等价的。
1.29试证明,多元正态随机矢量的线性变换仍为多元正态随机矢量。
1.30试证明,多元正态随机矢量X的分量的线性组合是一正态随机变量。
第二部分分析、证明、计算题
第二章聚类分析
2.1影响聚类结果的主要因素有那些?
2.2马氏距离有那些优点?
2.3如果各模式类呈现链状分布,衡量其类间距离用最小距离还是用最大距离?
为什么?
2.4动态聚类算法较之于简单聚类算法的改进之处何在?
层次聚类算法是动态聚类算法吗?
比较层次聚类算法与c-均值算法的优劣。
2.5ISODATA算法较之于C-均值算法的优势何在?
2.6简述最小张树算法的优点。
2.7证明马氏距离是平移不变的、非奇异线性变换不变的。
2.8设,类S、‘的重心分别为Xp、Xq,它们分别有样本np、nq个。
将和'
合并为「,则」有nl二np-nq个样本。
另一类-'
k的重心为xk。
试证明'
'
k与■'
l的距离平方是
2nP2nq22
Dkl=DkpDkq-Dpq
nk•nlnk•nlnk•nl
2.9
(1)设有M类模式r,i=1,2,...,M,试证明总体散布矩阵Sr是总类内散布矩阵Sw与类间散布矩
阵Sb之和,即St=Sw+Sb。
(2)设有二维样本:
x仁(-1,0)T,x2=(0,-1)T,x3=(0,0)T,x4=(2,0)丁和x5=(0,2)T。
试选用一种合适的方法进行一维特征特征提取yi=Wxi。
要求求出变换矩阵W并求出变换结果yi,(i=1,2,3,4,5)
(3)根据
(2)特征提取后的一维特征,选用一种合适的聚类算法将这些样本分为两类,要求每类样本
个数不少于两个,并写出聚类过程。
(k)(k)
k是迭代次数;
Zj是「j的样本均值。
处。
若a=2(k+1),证明,使误差平方和准则Jc最小的两类划分是x=0处的k个样本与x=a处的1个样
本为一类,其余为另一类。
这里,
cNj
Jc=、、(xi-m)2
j=1i=1
其中,c为类别数,Nj是第j类的样本个数,xi"
j,i=1,2,...,Nj,mj是第j类的样本均值。
{
广4、
2.12有样本集
丿
I1」
<
4>
I5」
©
,试用谱系聚类算法对其分类。
n
…T--
111■■(x^_z)(xi_z)
2.13设有样本集S={x1,X2,…,Xn},证明类心z到S中各样本点距离平方和T为最
zxi
小时,有ny
2.14假设s为模式矢量集X上的距离相似侧度,有r,y0,s(x,y)0且当a0时,
d(x,y)=a/s(x,y)。
证明j是距离差异性测度。
2.15证明欧氏距离满足旋转不变性。
提示:
运用Minkowski不等式,对于两矢量x_[x1,,xi】和
2.16证明:
(a)如果S是类X上的距离相似侧度,—x,y•0,s(x,y).0,那么对于-a.0,s(x,y)r
也是类X上的距离测度。
f(X)•f(y)_f(x•y),-x,y•r
d是类X上的距离差异性测度且d0一0。
证明f(d)也是类X上的距离差异性测度。
++
有-x,y・0,s(x,y).0,f:
R>
R是连续单调递增函
数,满足
f(x)■f(y)_
证明f(x)是X上的距离相似侧度。
2.19
证明:
对于模式矢量集X上任意两个矢量x和y有
dx,y)岂d2(x,y)乞dJx,y)
2.20
l--
、.q1/q
(x,y)=(瓦s(Xi,yJ)
(a)证明公式i=1
SF(x,y)的最大最小值分别是和0.51
2.21
q--sf(x,y)
(b)证明当q>
:
:
时,公式
1/q
q、
I--
=Cs(Xi,yJq)
ir中Sf(x,y)=max1空岂s(Xi,yj
假设d是模式矢量集X上的差异性测度,
S=dmax_d是相应相似测度。
max
psps
s(x,C)=d—d(x,C),PxEX,CuX
avgmaxavg
其中Savg和davg是分别根据
s和d所定义的。
PS
avg
?
avg的定义来自于下面公式,其中第一个
集合只含有一个矢量。
平均亲近函数
Ps
宇avg(Di,Dj)
势。
即使宇是测度,显然
、宇(x,
x:
=Diy三Dj
y)
,其中nDi和nDj分别是集合Di和Dj的
ps
?
avg不是测度。
在公式中,
Di和Dj中的所有矢量都参与计算。
l
假设x,y•{0,1}。
证明d2(X,y)-dHamming^"
)
TT
x=[x1,,xi]和y=【y1,,yi]
Xi一Yi
=maxjA.....$
-Yj},定义距离dn(X,Y)为
dn(x,y)=Xi—Yi
+Z
I_[(I-2)/2]j
Xi一yi
这个距离曾被提议作为欧氏距离的近似值。
(a)证明dn是距离。
(b)比较dn和d2的计算复杂度。
2.24若定义下列准则函数
c
——T_1
Jt八、(X-mi)St(X-mi)
i±
xWXj
其中mi是Xi中Ni个样本的均值向量,St是总散布矩阵,
(1)证明Jt对数据的非奇异线形变换具有不变性。
(2)证明把Xi中的样本0转移到Xj中去,则使Jt改变为
J;
=Jt-【一()?
-mj)Ts「(f-mj)叫(f-mjTSThf-mi)]
Nj+1Ni—1
写出使Jt最小化的迭代程序。
2.25证明对于C-均值算法,聚类准则函数满足使算法收敛的条件。
(即若
也(y,Kj)二1(y—mj)T!
:
y(y—mj)+1log|匚|
2.26令22是点到聚类的相似性度量,
聚类-j的均值和协方差矩阵,若把一点从「转移到-j中去,计算由公式
Jk(y,kj)
m所示jk的变化值。
第三章判别域代数界面方程法
3.2
(1)试给出LMSE算法(H-K算法)的算法流程图;
(2)试证明X#e(k)=0,这里,X#是伪逆矩阵;
e(k)为第k次迭代的误差向量;
(3)已知两类模式样本1:
x仁(-1,0)T,x2=(1,0)T;
.2:
x3=(0,0)T,x4=(0,-1)
试用LMSE算法判断其线性可分性。
N
NN
b=(
!
!
N1
N1N2
N2
N2
行。
当余量矢量
时,MSE解等价于Fisher解。
3.4已知二维样本:
X’
T
=(-1,0),
X2=(0,-1)T,
=(0,0)T,x4=(2,0)T和x5=(0,2)T,{X1,X2,X3}'
{x4,x5r'
2。
试用感知器算法求出分类决策函数,并判断X6=(1,1)T属于哪一类?
3.4.已知模式样本x1=(0,0)T,x2=(1,0)T,x3=(-1,1)T分别属于三个模式类别,即,X1討1,X2三「2,x3三门3,
(1)试用感知器算法求判别函数gi(x),使之满足,若Xi「’i则g(x)>
0,i=1,2,3;
(2)求出相应的判决界面方程,并画出解区域的示意图。
给定校正增量因子C=1,初始值可以取:
W1
(1)=(4,-9,-4)T,Wz
(1)=(4,1,-4,)
Ig(x)|
x—Xq|达到极小的解。
--g(x)
xp=x.-wHI。
3.7设有一维空间二次判别函数g(x)=57x9x,
g(x)=ay
o
3.8对二维线性判别函数g(x^x12x^2
-1-*T-1-
(1)将判别函数写成g(x)=wx-W0的形式,并画出g(x)=o的几何图形;
(2)将其映射成广义齐次线性判别函数g(x);
(3)指出上述X空间实际是Y空间的一个子空间,且a^y=0对X子空间的划分与原空间中
WxW0对原X空间的划分相同,并在图上表示出来。
3.9指出在Fisher线性判别中,w的比例因子对Fisher判别结果无影响的原因。
3.10证明两向量外积组成的矩阵一般是奇异的。
3.11证明,在几何上,感知器准则函数值正比于被错分类样本到决策面的距离之和。
3.12解释为什么感知器函数是一个连续分段的线性分类器。
w(0)—otw
ko=2
3.13如果在感知器算法中'
广'
,那么在:
2-'
步之后,这个算法收敛,其中
2
P
0(.—~j~7~
一2。
3.14证明感知器算法的正确分类和错误分类在有限个反复的运算以后是收敛的
TTT
[01][10][11]
3.15考虑一种情况,在类国1中包含两个特征向量,2,1」。
类国2中包含LI,U」和Ll,l」两
个向量。
根据感知器算法,其中‘二1,(0^|0-5,0-51,设计一个线性分离器来区分这两类
3.16在上一章2。
12问题中两分类问题中,取'
二11,1I"
2二'
0,0I二1弋2=°
.2.对于每一类
产生50个向量。
为了确保对于这两类的线性分离,对于向量[1,1]类确保X1X2”:
1,
对于[0,0]向量类X1X21。
下面的步骤就是使用这些向量去设计一个线性分类器使用(3.21)中的
感知器算法。
在收敛以后,画出相关的判定线
3.17假如2.12问题中是多类分类问题,每一类有100个样本点。
根据LMS算法使用这些数据去设计一
个线性分类器。
当所有的点被带入这个算法中进行计算的时候,画出这个算法收敛的相关超平面。
其中
3.18证明,使用KESLER勾造器,经过前面3。
21感知器算法的有限步正确与错误分类计算后,对于个X^,变为
•,itT=.it•"
xt用•,ixt丁;
乜jtxt,j=i
「it1■it-‘Xt「iXt—jtxt,jG
•,ktT二•kt一k=jandk=i
3.19证明理想权重向量的误差平方和趋渐进于MSE的解。
3.20使用均方误差和的原则解问题3.6并设计一个线性分类器。
3.21证明设计一个M类的线性分类器,有最佳误差平方和。
分类器减少到M等价个有相应的效果。
gk的形式存在,目的是估计参数■'
k,使得分类器根据输入
。
假设在每一类中x是随机分布,分类器的输出根据相关期望响应
值的不同而不同。
按照高斯已知变量的一个高斯分布,假设所有的输出都是相同的。
证明按照误差平方
和的原则,ML估计是产生一个等价的估计值。
ii
在已知的类别当中取出N个训练样本值。
对于他们中的每一个形成yi=gX'
,k_dk。
dk
是第k类中第i个样本点的期望响应值。
丫产服从正态0均值,方差为二的分布。
这个似然函数使
中训练一个判定界面fX;
,,目的是对两类进行有效判别,相关的,它等价于在MSE最优感知中,
它等价于fXL'
的渐进函数形式g(J.
3.25假设在两类分类问题中有服从联合分布的特征向量,他们在有共同的方差
分类器,证明在2.11问题中的贝叶斯分类器和这个结果的MSE分类器仅仅通过一个阈值就可以区分。
简化起见,仅仅考虑等概率的类的情况。
计算MSE超平面'
x「,0=0,增加x的维数,它的解按照下列方式提供,
小wJ
_w0
相关的R和'
在MSE分类器中按照下列的形式给出
T_1
11」2
第四章统计判决
4.1使用最小最大损失判决规则的错分概率是最小吗?
4.2当Zi=C2I时,先验概率对决策超平面的位置影响如何?
4.3假设在某个地区的细胞识别中正常"
和异常「2两类的先验概率分别为
正常状态:
Pj)"
9
异常状态:
PCJ"
1
现有一待识的细胞,其观测值为x,从类条件概率密度分布曲线上查得P(x=0.2,p(x‘J=°
.4
并且已知损失系数为.;
;
11=0,.;
.12=1,.;
;
21=6,.;
.22=0。
试对该细胞以以下两种方法进行分类:
①基于最小错误概率准则的贝叶斯判决;
②基于最小损失准则的
贝叶斯判决。
请分析两种分类结果的异同及原因。
4.4试用最大似然估计的方法估计单变量正态分布的均值,和方差二2。
4.5已知两个一维模式类别的类概率密度函数为
x0
wx<
p(x
k:
1)=2-x
1<
xw2
.0
其它
x-11
2)=3-x2
wxw3
先验概率
PC1)=0.6,
PC2)=0.4,
(1)求0-1代价Bayes判决函数;
(2)求总错误概率P(e);
判断样本]1=1.35,x2=1.45,x3=1.55,x4=1.65[各属于哪一类别。
4.6在目标识别中,假定有农田和装甲车两种类型,类型和类型分别代表农田和装甲车,它们的
先验概率分别为0.8和0.2,损失函数如表1所示。
现在做了三次试验,获得三个样本的类概率密度如下:
P(x/J:
0.3,0.1,0.6
P(x/2):
0.7,0.8,0.3
(1)试用贝叶斯最小误判概率准则判决三个样本各属于哪一个类型;
(2)假定只考虑前两种判决,试用贝叶斯最小风险准则判决三个样本各属于哪一个类型;
(3)把拒绝判决考虑在内,重新考核三次试验的结果。
表1
判决
损失
类型
蛍1
«
0.5
3
5
4.7已知两个一维模式类别的类概率密度函数为
先验概率P(;
1)=P(;
2),损失函数,.£
11=丿‘22=0,冷2=0.6,..;
”21=0.4o
(1)求最小平均损失Bayes判决函数;
(2)求总的误判概率P(e);
(3)对于一个两类一维问题,若这两类的类概率密度分别服从正态分布N(0,■?
)和N(1,?
),证明使平
12(-21P(⑷2)x°
=--In
均决策风险最小的决策门限为2'
12PC5)
这里,假设风险函数.11=.22=0。
一维正态分布:
4.9设以下两类模式均为正态分布
■1:
{(0,0)T,(2,0)T,(2,2)T,(0,2)T}
■2:
{(4,4)T,(6,4)T,(6,6)T,(4,6)T}
(1)设P(-)=P(.2)=1/2,求该两类模式之间的Bayes判别界面的方程。
(2)绘出判别界面。
4.10设以下两类模式均为正态分布
■■1:
{(-5,-5)T,(-5,-4)T,(-4,-5)T,(-6,-5)T,(-5,-6)T}
{(5,5)T,(5,6)T,(6,5)T,(5,4)T,(4,5)T}
(1)试用正交函数逼近法求类概率密度的估计P(xI」)和p(xr■2),可选用Hermite正交多项式前
四项低阶基函数:
H(x)=1,H1(x)=2x,H2(x)=4x2-2,H3(x)=8x3-12x;
(2)设P(」)=P(.2)=1/2,求Bayes判决函数;
(3)给出判别界面方程和图示。
4.11证明在多类问题中,贝叶斯决策准则使错误分类概率最小。
使用正确分类概率来证明要方便一些。
22
4.12在一个两类一维问题中,两类的概率分布密度函数分别为高斯分布N(°
,二)和N(1,匚),证明
使平均风险最小的门限X0为:
4.13假设两类类问题中损失矩阵为
Xo
In
入11人12
L=E'
一22丿,却是将本来属于酉1类的样本错分为酉2的概率,
2是将本来属于「2类的样本错分为「1的概率。
试证明平均风险为
4.14证明在多类分类问题中,M类的分类错误概率上限为Pe=(M-1)/M。
提示,对于每一个向量x最大后验概率密度函数P(d|x),i=1,2,,,M,大于或等于1/M。
这等
价于每一个P°
「1x)都是相等的。
4.15假设在一维两类分类当中样本点符合Rayleigh概率密度函数分布:
-I-X-x2
厂exp(厂)X一°
P(x丨COi)—*丐2丐
°
X£
°
试求判决边界
g(x)=°
。
4.16在两类分类问题中,限定其中一类的错分误概率为;
1=;
,证明,使另一类的错分概率;
2最小等价
于似然比判决:
如果P(・,1)/P
(2)>
T,则判x"
1,这里,v是使;
1=■:
成立的似然比判决门限。
注:
这就是Neyman-Pearson判决准则,它类似于贝叶斯最小风险准则。
该问题等价于用Langrange乘子法,使q=F;
1-)+2最小化。
4.17.二维三类问题,假设每一类都服从同一正态分布,且特征向量的的协方差矩阵为
1.2
0.4
1.8
各类的均值向量分别是
10.1,0.11
12.1,1.91
-1.5201
(1)用贝叶斯最小错误概率分类器将向量
11.6,1.5
分类。
(2)画出距离向量'
2.1,1.9'
的等马氏距离曲线图(略图)。
4.18.在两类三维空间分类问题中,每一类中的特征向量都服从正态分布,协方差矩阵为
0.30.1
0.1
0.10.3
-0.1
0.1-0.1
0.3
这两类的各自的均值向量分别为
00,01和
[0.5,0.5,0.51。
试推导相应的线性决策函数
和决策界面方程。
4.19.在两类等概率分类问题中,每一类中的特征向量的协方差矩阵均为
证明对于贝叶斯最小错误概率分类器,错误概率分布是
其中,dm是这两个均值向量之间的马氏距离。
该函数是dm的增函数。
对数似然比u"
np(x〔W1)p(x1W2)是一个随机变量,且服从高斯分布:
4.20•证明假设每个向量都遵循高斯概率密度函数分布,在(2。
19)的最大似然概率检测
P(X©
1)
X1
(2)ifl12一(”:
户
P(X化)
等价于
22£
J
dm岸1,x臣1)—dm(卩2,x|送2)+ln「<(C—2lnT
J2
d(卩,x1送)卩y
这里dm「'
是「和x之间关于「矩阵的的马氏距离。
4.21.女口果'
'
八2八
-[1\y
,证明上个问题成为21
4.22.在二维两类问题中,
其中
=(1,1)
满足
(a)
(b)
每一类
^exp
2二
夕exp
2-;
「2
-(1.5,1.5
2都服从以下分布:
夕(X
2二2
错误分类概率最小
NTN=
一2)Xi
c2=0.2
具有损失矩阵上的平均风险最小
假设PC「)=PC'
2),设计一个贝叶斯分类器,
[0.5
使用一个伪随机的数值产生器,从每一个类中得到100个特征向量。
按照上面的概率密度函数。
使用这
个分类器去分类已经产生的向量。
对于每个事例中的错误概率是多少?
用
.rt
・2二(3.0,3.0)重复这个实
验。
4.23.重复上面的实验,特征向量服从以下分布:
)=—j一exp
2jlZ
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 模式识别 试题库 doc