课后习题与答案Word文档格式.docx
- 文档编号:17814199
- 上传时间:2022-12-10
- 格式:DOCX
- 页数:19
- 大小:75.85KB
课后习题与答案Word文档格式.docx
《课后习题与答案Word文档格式.docx》由会员分享,可在线阅读,更多相关《课后习题与答案Word文档格式.docx(19页珍藏版)》请在冰豆网上搜索。
(1)每个学生都有一台计算机。
(2)高老师从3月到7月给计算机系学生讲《计算机网络》课。
解:
(3)学习班的学员有男、有女、有研究生、有本科生。
参例
(4)创新公司在科海大街56号,刘洋是该公司的经理,他32岁、硕士学位。
(5)红队与蓝队进行足球比赛,最后以3:
2的比分结束。
请把下列命题用一个语义网络表示出来:
(1)树和草都是植物;
(2)树和草都有叶和根;
(3)水草是草,且生长在水中;
(4)果树是树,且会结果;
(5)梨树是果树中的一种,它会结梨。
第5章计算智能部分参考答案
对遗传法的选择操作:
设种群规模为4,个体采用二进制编码,适应度函数为f(x)=x2,初始种群情况如下表所示:
编号
个体串
x
适应值
百分比
累计百分比
选中次数
S01
1010
10
S02
0100
4
S03
1100
12
S04
0111
7
若规定选择概率为100%,选择算法为轮盘赌算法,且依次生成的4个随机数为,,,,请填写上表中的全部内容,并求出经本次选择操作后所得到的新的种群。
表格的完整内容为:
100
1
16
144
2
49
本次选择后所得到的新的种群为:
S01=1100
S02=1010
S03=0111
S04=1100
设某小组有5个同学,分别为S1,S2,S3,S4,S5。
若对每个同学的“学习好”程度打分:
S1:
95S2:
85S3:
80S4:
70S5:
90
这样就确定了一个模糊集F,它表示该小组同学对“学习好”这一模糊概念的隶属程度,请写出该模糊集。
对模糊集为F,可表示为:
F=95/S1+85/S2+80/S3+70/S4+90/S5
或
F={95/S1,85/S2,80/S3,70/S4,90/S5}
设有论域
U={u1,u2,u3,u4,u5}
并设F、G是U上的两个模糊集,且有
F=u1+u2+u3+u4
G=u3+u4+1/u5
请分别计算F∩G,F∪G,﹁F。
F∩G=∧0)/u1+∧0)/u2+∧/u3+∧/u4+(0∧1)/u5
=0/u1+0/u2+u3+u4+0/u5
=u3+u4
F∪G=∨0)/u1+∨0)/u2+∨/u3+∨/u4+(0∨1)/u5
=u1+u2+u3+u4+1/u5
﹁F=/u1+/u2+/u3+/u4+(1-0)/u5
设有如下两个模糊关系:
请写出R1与R2的合成R1οR2。
R(1,1)=∧∨∧∨∧=∨∨=
R(1,2)=∧∨∧∨∧=∨∨=
R(2,1)=(1∧∨(0∧∨∧=∨0∨=
R(2,2)=(1∧∨(0∧∨∧=∨0∨=
R(3,1)=(0∧∨∧∨(1∧=∨∨=
R(3,2)=(0∧∨∧∨(1∧=0∨∨=
因此有
设F是论域U上的模糊集,R是U×
V上的模糊关系,F和R分别为:
求模糊变换FοR。
={∨∨,∨∨,∨∨0}
={,,}
第6章不确定性推理部分参考答案
设有如下一组推理规则:
r1:
IFE1THENE2
r2:
IFE2ANDE3THENE4
r3:
IFE4THENH
r4:
IFE5THENH
且已知CF(E1)=,CF(E3)=,CF(E5)=。
求CF(H)=
(1)先由r1求CF(E2)
CF(E2)=×
max{0,CF(E1)}
=×
max{0,}=
(2)再由r2求CF(E4)
CF(E4)=×
max{0,min{CF(E2),CF(E3)}}
max{0,min{,}}=
(3)再由r3求CF1(H)
CF1(H)=×
max{0,CF(E4)}
max{0,}=
(4)再由r4求CF2(H)
CF2(H)=×
max{0,CF(E5)}
max{0,}=
(5)最后对CF1(H)和CF2(H)进行合成,求出CF(H)
CF(H)=CF1(H)+CF2(H)+CF1(H)×
CF2(H)
=
设有如下推理规则
IFE1THEN(2,H1
IFE2THEN(100,H1
IFE3THEN(200,H2
IFH1THEN(50,H2
且已知P(E1)=P(E2)=P(H3)=,P(H1)=,P(H2)=,又由用户告知:
P(E1|S1)=,P(E2|S2)=,P(E3|S3)=
请用主观Bayes方法求P(H2|S1,S2,S3)=
(1)由r1计算O(H1|S1)
先把H1的先验概率更新为在E1下的后验概率P(H1|E1)
P(H1|E1)=(LS1×
P(H1))/((LS1-1)×
P(H1)+1)
=(2×
/((2-1)×
+1)
由于P(E1|S1)=>
P(E1),使用P(H|S)公式的后半部分,得到在当前观察S1下的后验概率P(H1|S1)和后验几率O(H1|S1)
P(H1|S1)=P(H1)+((P(H1|E1)–P(H1))/(1-P(E1)))×
(P(E1|S1)–P(E1))
=+–/(1–)×
–
=+×
=
O(H1|S1)=P(H1|S1)/(1-P(H1|S1))
(2)由r2计算O(H1|S2)
先把H1的先验概率更新为在E2下的后验概率P(H1|E2)
P(H1|E2)=(LS2×
P(H1))/((LS2-1)×
=(100×
/((100-1)×
由于P(E2|S2)=>
P(E2),使用P(H|S)公式的后半部分,得到在当前观察S2下的后验概率P(H1|S2)和后验几率O(H1|S2)
P(H1|S2)=P(H1)+((P(H1|E2)–P(H1))/(1-P(E2)))×
(P(E2|S2)–P(E2))
O(H1|S2)=P(H1|S2)/(1-P(H1|S2))
(3)计算O(H1|S1,S2)和P(H1|S1,S2)
先将H1的先验概率转换为先验几率
O(H1)=P(H1)/(1-P(H1))==
再根据合成公式计算H1的后验几率
O(H1|S1,S2)=(O(H1|S1)/O(H1))×
(O(H1|S2)/O(H1))×
O(H1)
=/×
/×
再将该后验几率转换为后验概率
P(H1|S1,S2)=O(H1|S1,S2)/(1+O(H1|S1,S2))
(4)由r3计算O(H2|S3)
先把H2的先验概率更新为在E3下的后验概率P(H2|E3)
P(H2|E3)=(LS3×
P(H2))/((LS3-1)×
P(H2)+1)
=(200×
/((200-1)×
由于P(E3|S3)=<
P(E3),使用P(H|S)公式的前半部分,得到在当前观察S3下的后验概率P(H2|S3)和后验几率O(H2|S3)
P(H2|S3)=P(H2|E3)+(P(H2)–P(H2|E3))/P(E3))×
P(E3|S3)
由当E3肯定不存在时有
P(H2|E3)=LN3×
P(H2)/((LN3-1)×
P(H2)+1)
/(-1)×
+1)
P(H2|S3)=P(H2|E3)+(P(H2)–P(H2|E3))/P(E3))×
P(E3|S3)
=+(/×
O(H2|S3)=P(H2|S3)/(1-P(H2|S3))
(5)由r4计算O(H2|H1)
先把H2的先验概率更新为在H1下的后验概率P(H2|H1)
P(H2|H1)=(LS4×
P(H2))/((LS4-1)×
=(50×
/((50-1)×
由于P(H1|S1,S2)=>
P(H1),使用P(H|S)公式的后半部分,得到在当前观察S1,S2下H2的后验概率P(H2|S1,S2)和后验几率O(H2|S1,S2)
P(H2|S1,S2)=P(H2)+((P(H2|H1)–P(H2))/(1-P(H1)))×
(P(H1|S1,S2)–P(H1))
O(H2|S1,S2)=P(H2|S1,S2)/(1-P(H2|S1,S2))
=(1-=
(6)计算O(H2|S1,S2,S3)和P(H2|S1,S2,S3)
先将H2的先验概率转换为先验几率
O(H2)=P(H2)/(1-P(H2))=/=
O(H2|S1,S2,S3)=(O(H2|S1,S2)/O(H2))×
(O(H2|S3)/O(H2))×
O(H2)
P(H2|S1,S2,S3)=O(H1|S1,S2,S3)/(1+O(H1|S1,S2,S3))
=/(1+=
可见,H2原来的概率是,经过上述推理后得到的后验概率是,它相当于先验概率的6倍多。
设有如下推理规则
IFE1THEN(100,H1
IFE2THEN(50,H2
IFE3THEN(5,H3
且已知P(H1)=,P(H2)=,P(H3)=,请计算当证据E1,E2,E3存在或不存在时P(Hi|Ei)或P(Hi|﹁Ei)的值各是多少(i=1,2,3)
(1)当E1、E2、E3肯定存在时,根据r1、r2、r3有
P(H1|E1)=(LS1×
=(100×
P(H2|E2)=(LS2×
P(H2))/((LS2-1)×
=(50×
P(H3|E3)=(LS3×
P(H3))/((LS3-1)×
P(H3)+1)
=(5×
/((5-1)×
(2)当E1、E2、E3肯定存在时,根据r1、r2、r3有
P(H1|E1)=(LN1×
P(H1))/((LN1-1)×
/(-1)×
P(H2|E2)=(LN2×
P(H2))/((LN2-1)×
P(H3|E3)=(LN3×
P(H3))/((LN3-1)×
设有如下一组推理规则:
IFE1ANDE2THENA={a}(CF={})
IFE2AND(E3ORE4)THENB={b1,b2}(CF={,})
IFATHENH={h1,h2,h3}(CF={,,})
IFBTHENH={h1,h2,h3}(CF={,,})
且已知初始证据的确定性分别为:
CER(E1)=,CER(E2)=,CER(E3)=,CER(E4)=。
假设|Ω|=10,求CER(H)。
其推理过程参考例
具体过程略
设
U=V={1,2,3,4}
且有如下推理规则:
IFxis少THENyis多
其中,“少”与“多”分别是U与V上的模糊集,设
少=1+2+3
多=2+3+4
已知事实为
xis较少
“较少”的模糊集为
较少=1+2+3
请用模糊关系Rm求出模糊结论。
先用模糊关系Rm求出规则
所包含的模糊关系Rm
Rm(1,1)=∧0)∨=
Rm(1,2)=∧∨=
Rm(1,3)=∧∨=
Rm(1,4)=∧∨=
Rm(2,1)=∧0)∨=
Rm(2,2)=∧∨=
Rm(2,3)=∧∨=
Rm(2,4)=∧∨=
Rm(3,1)=∧0)∨=
Rm(3,2)=∧∨=
Rm(3,3)=∧∨=
Rm(3,4)=∧∨=
Rm(4,1)=(0∧0)∨(1-0)=1
Rm(4,2)=(0∧∨(1-0)=1
Rm(4,3)=(0∧∨(1-0)=1
Rm(3,4)=(0∧∨(1-0)=1
即:
即,模糊结论为
Y’={,,,}
U=V=W={1,2,3,4}
且设有如下规则:
r1:
IFxisFTHENyisG
r2:
IFyisGTHENzisH
r3:
IFxisFTHENzisH
其中,F、G、H的模糊集分别为:
F=1/1+2+3+4
G=2+3+4
H=2+3+4
请分别对各种模糊关系验证满足模糊三段论的情况。
本题的解题思路是:
由模糊集F和G求出r1所表示的模糊关系R1m,R1c,R1g
再由模糊集G和H求出r2所表示的模糊关系R2m,R2c,R2g
再由模糊集F和H求出r3所表示的模糊关系R3m,R3c,R3g
然后再将R1m,R1c,R1g分别与R2m,R2c,R2g合成得R12m,R12c,R12g
最后将R12m,R12c,R12g分别与R3m,R3c,R3g比较
第7章机器学习参考答案
7-6设训练例子集如下表所示:
序号
属性
分类
x1
x2
T
+
3
F
-
5
_
6
请用ID3算法完成其学习过程。
设根节点为S,尽管它包含了所有的训练例子,但却没有包含任何分类信息,因此具有最大的信息熵。
H(S)=-(P(+)log2P(+)+P(-)log2P(-))
式中
P(+)=3/6,P(-)=3/6
分别是决策方案为“+”或“-”时的概率。
H(S)=-((3/6)log2(3/6)+(3/6)log2(3/6))
=1
按照ID3算法,需要选择一个能使S的期望熵为最小的一个属性对根节点进行扩展,因此我们需要先计算S关于每个属性的条件熵:
H(S|xi)=(|ST|/|S|)*H(ST)+(|SF|/|S|)*H(SF)
其中,T和F为属性xi的属性值,ST和SF分别为xi=T或xi=F时的例子集,|S|、|ST|和|SF|分别为例子集S、ST和SF的大小。
下面先计算S关于属性x1的条件熵:
在本题中,当x1=T时,有:
ST={1,2,3}
当x1=F时,有:
SF={4,5,6}
其中,ST和SF中的数字均为例子集S中的各个例子的序号,且有|S|=6,|ST|=|SF|=3。
由ST可知,其决策方案为“+”或“-”的概率分别是:
PST(+)=2/3
PST(-)=1/3
因此有:
H(ST)=-(PST(+)log2PST(+)+PST(-)log2PST(-))
=-((2/3)log2(2/3)+(1/3)log2(1/3))
=
再由SF可知,其决策方案为“+”或“-”的概率分别是:
PSF(+)=1/3
PSF(-)=2/3
则有:
H(SF)=-(PSF(+)log2PSF(+)+PSF(-)log2PSF(-))
=-((1/3)log2(1/3)+(2/3)log2(2/3))
将H(ST)和H(SF)代入条件熵公式,有:
H(S|x1)=(|ST|/|S|)H(ST)+(|SF|/|S|)H(SF)
=(3/6)﹡+(3/6)﹡
下面再计算S关于属性x2的条件熵:
在本题中,当x2=T时,有:
ST={1,2,5,6}
当x2=F时,有:
SF={3,4}
其中,ST和SF中的数字均为例子集S中的各个例子的序号,且有|S|=6,|ST|=4,|SF|=2。
由ST可知:
PST(+)=2/4
PST(-)=2/4
H(ST)=-(PST(+)log2PST(+)+PST(-)log2PST(-))
=-((2/4)log2(2/4)+(2/4)log2(2/4))
=1
再由SF可知:
PSF(+)=1/2
PSF(-)=1/2
H(SF)=-(P(+)log2P(+)+P(-)log2P(-))
=-((1/2)log2(1/2)+(1/2)log2(1/2))
H(S|x2)=(|ST|/|S|)H(ST)+(|SF|/|S|)H(SF)
=(4/6)﹡1+(2/6)﹡1
可见,应该选择属性x1对根节点进行扩展。
用x1对S扩展后所得到的部分决策树如下图所示。
在该决策树中,其2个叶节点均不是最终决策方案,因此还需要继续扩展。
而要继续扩展,只有属性x2可选择,因此不需要再进行条件熵的计算,可直接对属性x2进行扩展。
对x2扩展后所得到的决策树如下图所示:
7-9假设w1(0)=,w2(0)=,θ(0)=,η=,请用单层感知器完成逻辑或运算的学习过程。
根据“或”运算的逻辑关系,可将问题转换为:
输入向量:
X1=[0,0,1,1]
X2=[0,1,0,1]
输出向量:
Y=[0,1,1,1]
由题意可知,初始连接权值、阈值,以及增益因子的取值分别为:
w1(0)=,w2(0)=,θ(0)=,η=
即其输入向量X(0)和连接权值向量W(0)可分别表示为:
X(0)=(-1,x1(0),x2(0))
W(0)=(θ(0),w1(0),w2(0))
根据单层感知起学习算法,其学习过程如下:
设感知器的两个输入为x1(0)=0和x2(0)=0,其期望输出为d(0)=0,实际输出为:
y(0)=f(w1(0)x1(0)+w2(0)x2(0)-θ(0))
=f*0+*=f=0
实际输出与期望输出相同,不需要调节权值。
再取下一组输入:
x1(0)=0和x2(0)=1,其期望输出为d(0)=1,实际输出为:
=f*0+*=f=1
x1(0)=1和x2(0)=0,其期望输出为d(0)=1,实际输出为:
=f*1+*
=f=0
实际输出与期望输出不同,需要调节权值,其调整如下:
θ
(1)=θ(0)+η(d(0)-y(0))*(-1)=+*(1-0)*(-1)=
w1
(1)=w1(0)+η(d(0)-y(0))x1(0)=+*(1-0)*1=
w2
(1)=w2(0)+η(d(0)-y(0))x2(0)=+*(1-0)*0=
x1
(1)=1和x2
(1)=1,其期望输出为d
(1)=1,实际输出为:
y
(1)=f(w1
(1)x1
(1)+w2
(1)x2
(1)-θ
(1))
=f*1+*1+
=f=1
x1
(1)=0和x2
(1)=0,其期望输出为d(0)=0,实际输出为:
=f*0+*0+=f=1
实际输出与期望输出不同,需要调节权值,其调整如下
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 课后 习题 答案