数据挖掘课后标准答案Word下载.docx
- 文档编号:18516803
- 上传时间:2022-12-18
- 格式:DOCX
- 页数:16
- 大小:162.85KB
数据挖掘课后标准答案Word下载.docx
《数据挖掘课后标准答案Word下载.docx》由会员分享,可在线阅读,更多相关《数据挖掘课后标准答案Word下载.docx(16页珍藏版)》请在冰豆网上搜索。
构建一个基于所有数据的概率(回归)模型,如果一个数据点的预测值有很大的不同给定值,然后给定值可考虑是异常的。
用聚类的方法来检查离群点更为可靠,因为聚类后,不同的聚类代表着不同的集群数据,
离群点是不属于任何集群的,这是根据原来的真实数据所检查出来的离群点。
而用预测或回
归方法,是通过构建一个基于所有数据的(回归)模型,然后根据预测值与原始数据的值比
较,当二者相差很大时,就将改点作为离群点处理,这对所建立的模型有很大的依赖性,另
外所建立的模型并不一定可以很好地拟合原来的数据,因此一个点在可能某个模型下可能被当作离群点来处理,而在另外一个模型下就是正常点。
所以用聚类的方法来检查离群点更为可靠
1.15
挖掘海量数据的主要挑战是:
1)第一个挑战是关于数据挖掘算法的有效性、可伸缩性问题,即数据挖掘算法在大型数据库中运行时间必须是可预计的和可接受的,且算法必须是高效率和可扩展的。
2)另一个挑战是并行处理的问题,数据库的巨大规模、数据的广泛分布、数据挖掘过程的高开销和一些数据挖掘算法的计算复杂性要求数据挖掘算法必须具有并行处理的能力,即算法可以将数据划分成若干部分,并行处理,然后合并每一个部分的结果。
第二章
2.11三种规范化方法:
(1)最小一最大规范化(min-max规范化):
对原始数据进行线性变换,将原始数据映射到一个指定的区间。
v'
(new_maxnew_min)new_min
(2)z-score规范化是其规范化后的均值为
maxmin
(零均值规范化):
将某组数据的值基于它的均值和标准差规范化,0方差为1。
其中是均值,是标准差
(3)
1的最小整数
小数定标规范化:
通过移动属性A的小数点位置进行规范化。
v其中,j是使得Max
(a)min-max规范化
vmin
v(new_maxnew_min)new_min
maxmin__一
规范化到的区间的上下限
其中v是原始数据,min和max是原始数据的最小和最大值,new_max和new_min是要
原始数据
200
300
400
600
1000
[0,1]规范化
0.125
0.25
0.5
1
(b)z-score规范化
2003004006001000500
22222
282.8427
200500(300500)2(400500)2(500500)2(1000500)2
5
z-score
-1.06
-0.7
-0.35
0.35
1.78
2.13
(1)逐步向前选择
初始化属性集,设置
4确定原属性
把选中的属
(2)逐步向后删除
是
所选的最
否
从最初的工
合并设
在初始设
'
置为减少
⑶向前选择和向后删除的结合
结.
初始化属性
yf
确定原属性集
2
y
选择最好的属性加入
L
第三章
3.2简略比较以下概念,可以用例子解释你的观点
(a)雪花形模式、事实星座形、星形网查询模型。
答:
雪花形和事实星形模式都是变形的星形模式,都是由事实表和维表组成,雪花形模式的维表都是规范化的;
而事实星座形的某几个事实表可能会共享一些维表;
星形网查询模型是一个查询模型而不是模式模型,它是由中心点发出的涉嫌组成,其中每一条射线代表一个维的概念分层。
(b)数据清理、数据变换、刷新
数据清理是指检测数据中的错误,可能时订正它们;
数据变换是将数据由遗产或宿主格式转换成数据仓库格式;
刷新是指传播由数据源到数据仓库的更新。
⑻雪花形模式图如下:
(见74页)
course维表univfacttablestudent维表area维表
(b)特殊的QLAP操作如下所示:
(见79页)
1)在课程维表中,从course_id到department进行上卷操作;
2)在学生维表中,从student_id到university进行上卷操作;
3)根据以下标准进行切片和切块操作:
department="
CS”anduniversity="
BigUniversity”;
4)在学生维表中,从university到student_id进行下钻操作。
4
(c)这个立方体将包含5625个长方体。
(见课本88与89页)
第五章
5.1
(a)假设s是频繁项集,min_sup表示项集的最低支持度,D表示事务数据库。
由于s是
个频繁项集,所以有
假设s是s的一个非空子集,由于support_count(s)support_sup(s),故有
所以原题得证,即频繁项集的所有非空子集必须也是频繁的。
supprot_count(s)
D
(b)由定义知,support(s)support_CoUnt(s)
由(a)可知,support(s)
sup
prot(s),这就证明了项集
s的任意非空子集s的支持度
至少和s的支持度一样大。
(c)因为confidence(s
ls)
p(l)'
confidence(sp(s)
ls)p(I)
p(s)
根据(b)有p(s)=>
所以confidenee(sl
s)
confidenee(s'
l
s'
)
令s'
是s的任何一个非空子集,则有support(s'
即“s'
=>
(l-s'
)”的置信度不可能大于“s(ls)
(d)反证法:
即是D中的任意一个频繁项集在D的任一划分中都不是频繁的
假设D划分成di,d2,,dn,设diG,d?
C2,,dnCn,min_sup表示最小
支持度,C=DCC2Cn
F是某一个频繁项集,AF,ACmin_sup,Ddjd?
dn
设F的项集在di,d2,,dn中分别出现ai,a?
,a.次
所以A=a1a2an
故ACmin_sup(C1C2CN)min_sup)(*)
aia2an(CiC2Cn)min_sup
F在D的任意一个划分都不是频繁的
a1
min_sup,
a2
C2min_sup,,anCnmin_sup
⑻
an)
(C1
C2Cn)min_sup
A
C
min_sup
这与(
*)式矛盾
从而证明在
D中频繁的任何项集,至少在D的一个部分中是频繁。
FP-growth:
Y:
i
item
Conditionalpatternbase
Conditionaltree
Frequentpattern
{{k,e,m,o:
1},{k,e,o:
1},{k,m:
1}}
K:
3
{k,y:
3}
o
{{k,e,m:
1},{k,e:
2}}
3,e:
{k,o:
3},{e,o:
3},{k,e,o:
m
{{k,e:
2},{k:
{k,m:
e
{{k:
4}}
{k,e:
4}
(b)k,0
e,o
这两种挖掘过程的效率比较:
Aprior算法必须对数据库进行多次的扫描,而FP增长算法是
建立在单次扫描的FP树上。
在Aprior算法中生成的候选项集是昂贵的(需要自身的自连接)
而FP-growth不会产生任何的候选项集。
所以FP算法的效率比先验算法的效率要高。
5.6
一个全局的关联规则算法如下:
1)找出每一家商店自身的频繁项集。
然后把四个商店自身的频繁项集合并为CF项集;
2)通过计算四个商店的频繁项集的支持度,然后再相加来确定CF项集中每个频繁项集的总支持度即全局的支持度。
其支持度超过全局支持度的项集就是全局频繁项集。
3)据此可能从全局频繁项集发现强关联规则。
5.14
support(hotdogshumbergers)
所以该关联规则是强规则。
p(hotdogs,hamburgers)corr(hotdogs,hamburgers)
(b)p(hotdogs)p(hamburgers)
200050000.44,
130005000250050000.62.53
所以给定的数据,买hotdogs并不独立于hamburgers,二者之间是正相关。
5.19
1)挖掘免费的频繁1-项集,记为S1
2)生成频繁项集S2,条件是商品价值不少于$200(使用FP增长算法)
3)从S1S2找出频繁项集
4)根据上面得到的满足最小支持度和置信度的频繁项集,建立规则S仁>S2
第八早
6.1简述决策树的主要步骤
假设数据划分D是训练元组和对应类标号的集合
1)树开始时作为一个根节点N包含所有的训练元组;
2)如果D中元组都为同一类,则节点N成为树叶,并用该类标记它;
3)否则,使用属性选择方法确定分裂准则。
分裂准则只当分裂属性和分裂点或分裂
子集。
4)节点N用分裂准则标记作为节点上的测试。
对分裂准则的每个输出,由节点N生
长一个分枝。
D中元组厥词进行划分。
(1)如果A是离散值,节点N的测试输出直接对应于A的每个已知值。
(2)如果A是连续值的,则节点N的测试有两
个可能的输出,分别对应于Asplit_point和Asplit_point。
(3)如果
A是离散值并且必须产生二叉树,则在节点N的测试形如“ASa”,Sa是A
的分裂子集。
如果给定元组有A的值aj,并且ajSa,则节点N的测试条件
满足,从N生长出两个分枝。
5)对于D的每个结果划分Dj,使用同样的过程递归地形成决策树。
6)递归划分步骤仅当下列条件之一成立时停止:
(1)划分D的所有元组都属于同一类;
(2)没有剩余的属性可以进一步划分元组;
(3)给定分枝没有元组。
6.4计算决策树算法在最坏情况下的计算复杂度是重要的。
给定数据集D,具有n个属性
和|D|个训练元组,证明决策树生长的计算时间最多为nDlogD
证明:
最坏的可能是我们要用尽可能多的属性才能将每个元组分类,树的最大深
度为log(|D|),在每一层,必须计算属性选择0(n)次,而在每一层上的所有
元组总数为|D|,所以每一层的计算时间为O(n|D|),因此所有层的计算
时间总和为
O(nDlogD),即证明决策树生长的计算时间最多为
nDlogD
6.5为什么朴素贝叶斯分类称为“朴素”?
简述朴素贝叶斯分类的主要思想。
(1)朴素贝叶斯分类称为“朴素”是因为它假定一个属性值对给定类的影响独立于其他属性值。
做此假定是为了简化所需要的计算,并在此意义下称为“朴素”。
(2)主要思想:
(a)设D是训练元组和相关联的类标号的集合。
每个元组用一个n
维属性向量X{x“X2,,Xn}表示,描述由n个属性A1,A2,,An对元组的n个测量。
另外,假定有m个类C「C2,,Cm(b)朴素贝叶斯分类法预测X属于类Ci,当且仅当
P(Ci|X)P(Cj|X)1jm,ji,因此我们要最大化
p(G|X)P(X|Ci)pQ),由于p(X)对于所有类为常数,因此只需要p(x|G)p(G)
P(X)
最大即可。
如果类的先验概率未知,则通过假定这些类是等概率的,即
P(C1)P(C2)
P(Cm),并据此对P(X|Ci)最大化,否则,最大化P(X|Ci)P(Ci),
类的先验概率可以用
|CiD|
P(Ci),估计。
其中|CiD|是D中Ci类的训练元组数。
(C)假
定属性
值有条件地相互独立,则
n
P(X|Ci)P(Xk|Ci)P(Xi|Ci)P(X2|Ci)P(XnlG),如果Ak是分类属
k1
性,则P(xk|Ci)是D中属性Ak的值为xk的Ci类的元组数除以D中Ci类的元组数|Cj,DI
如果Ak是连续值属性,则P(Xk|Ci)由高斯分布函数决定。
6.13给定k和描述每个元组的属性数n,写一个k最近邻分类算法。
算法:
输入:
(1)设U是待分配类的元组;
(2)T是一个训练元组集,包括T1(垃1,1,2,,ti,n),
(3)假设属性ti,n是Ti的类标签;
(4)m为训练元组的个数;
(5)n为每个元组的描述属性的个数;
(6)k是我们要找的最邻近数。
输出:
U的分类标签
算法过程:
(1)定义矩阵a[m][2]。
//(m行是存储与m个训练元组有关的数据,第一列是存储待分类元组U与训练元组的欧几里得距离,第二列是存储训练元组的序号)
(2)fori=1tomdof
a[i][1]=Euclideandistance(U;
Ti);
a[i][2]=i;
g//savetheindex,becauserowswillbesortedlater
(3)将a[i][1]按升序排列。
(4)定义矩阵b[k][2]。
//第一列包含的K-近邻不同的类别,而第二列保存的是它们各自频数
(5)fori=1tokdof
if类标签ta[i][2];
n已经存在于矩阵b中
then矩阵b中找出这个类标签所在的行,并使其对应的频数增加1
eles将类标签添加到矩阵b可能的行中,并使其对应的频数增加1
(6)将矩阵b按类的计数降序排列
*7)返回b
(1).〃返回频数最大的类标签作为U的类标签。
第七章
7.1简单地描述如何计算由如下类型的变量描述的对象间的相异度:
(a)数值(区间标度)变量
区间标度变量描述的对象间的相异度通常基于每对对象间的距离计算的,常用的距离度量有欧几里得距离和曼哈顿距离以及闵可夫基距离。
欧几里得距离的定义如下:
忽略,所以二元变量的相异度的计算公式为:
d(i,j)qrs
(c)分类变量
i和j之间的相异度
分类变量是二元变量的推广,它可以取多于两个状态值。
两个对象
可以根据不匹配率来计算:
d(i,j)丄』,其中m是匹配的数目(即对i和j取值相同状
P
态的变量的数目),而p是全部变量的数目。
另外,通过为M个状态的每一个创建一个二元变量,可以用非对称二元变量对分类变量编码。
对于一个具有给定状态值的对象,对应于该状态值的二元变量置为1,而其余的二
元变量置为0.
(d)比例标度变量答:
有以下三种方法:
(1)将比例标度变量当成是区间标度标量,则可以用闽可夫基距离、欧几里得距离和曼
哈顿距离来计算对象间的相异度。
(2)对比例标度变量进行对数变换,例如对象i的变量f的值Xif变换为yiflog(Xif),
变换得到的yif可以看作区间值。
(3)将Xf看作连续的序数数据,将其秩作为区间值来对待。
(e)非数值向量对象
为了测量复杂对象间的距离,通常放弃传统的度量距离计算,而引入非度量的相似度函
数。
例如,两个向量x和y,可以将相似度函数定义为如下所示的余弦度量:
s(x,y)
其中,xt是向量x的转置,x是向量x的欧几里得范数,|y|是向量y的欧几里得范数,s本质上是向量x和y之间夹角的余弦值。
7.5简略描述如下的聚类方法:
划分方法、层次方法、基于密度的方法、基于网格的方法、基于模型的方法、针对高维数据的方法和基于约束的方法。
为每类方法给出例子。
(1)划分方法:
给定n个对象或数据元组的数据可,划分方法构建数据的k个划分,每个
划分表示一个簇,k<
=n。
给定要构建的划分数目k,划分方法创建一个初始画风。
然后采用
迭代重定位技术,尝试通过对象在组间移动来改进划分。
好的划分的一般准则是:
在同一个
簇的对象间互相“接近”和相关,而不同簇中的对象之间“远离”或不同。
k均值算法和k
中心点算法是两种常用的划分方法。
(2)层次方法:
层次方法创建给定数据对象集的层次分解。
根据层次的分解的形成方式,
层次的方法可以分类为凝聚的或分裂的方法。
凝聚法,也称自底向上方法,开始将每个对象
形成单独的组,然后逐次合并相近的对象或组,直到所有的组合并为一个,或者满足某个终
止条件。
分裂法,也称自顶向下方法,开始将所有的对象置于一个簇中。
每次迭代,簇分裂为更小的簇,直到最终每个对象在一个簇中,或者满足某个终止条件。
(3)基于密度的方法:
主要是想是:
只要“邻域”中的密度(对象或数据点的数目)超过
某个阈值,就继续聚类。
也就是说,对给定簇中的每个数据点,在给定半径的邻域中必须至少包含最少数目的点。
这样的方法可以用来过滤噪声数据(离群点),发现任意形状的簇。
DBSCAN和OPTICS方法是典型的基于密度的聚类方法。
(4)基于网格的方法:
基于网格的方法把对象空间量化为有限数目的单元,形成一个网格
结构。
所有的聚类操作都在这个网格结构上进行。
这种方法的主要优点是处理速度很快,其处理时间通常独立于数据对象的数目,仅依赖于量化空间中每一维的单元数目。
STING是基
于网格方法的典型例子。
(5)基于模型的方法:
基于模型的方法为每簇坚定一个模型,并寻找数据对给定模型的最
佳拟合。
基于模型的算法通过构建反映数据点空间分布的密度函数来定位簇。
它也导致基于
标准统计量自动地确定簇的数目,考虑“噪声”数据和离群点的影响,从而产生鲁棒的聚类
方法。
COBWEB和SOM是基于:
模型方法的示例。
7.7k均值和k中心点算法都可以进行有效的聚类。
概述k均值和k中心点算法的优缺点。
并概述两种方法与层次聚类方法(如AGBES相比的优缺点。
(1):
k均值和k中心点算法的优缺点:
k中心点算法比k均值算法更鲁棒性,这是因为中线点不想均值那样容易受离群点或其他极端值影响。
然而,k中心点方法执行代价比k均
值算法高。
(2)k均值和k中心点算法与层次聚类方法(如AGBES相比的优缺点:
k均值和k中心点算法都是划分的聚类方法,它们的优点是在聚类是它们前面的步骤可以撤销,而不像层次聚类方
法那样,一旦合并或分裂执行,就不能修正,这将影响到聚类的质量。
k均值和k中心点方法
对小数据集非常有效,产但是对大数据集没有良好的可伸缩性,另外的一个缺点是在聚类前必须知道类的数目。
而层次聚类方法能够自动地确定类的数量,但是层次方法在缩放时会遇到
困难,那是因为每次决定合并或分裂时,可能需要一定数量的对象或簇来审核与评价。
改善
层次聚类方法有:
BIRCH,ROC和Chameleon算法
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 数据 挖掘 课后 标准答案