最新奥鹏远程南开大学《数据科学导论》20春期末考核-参考答案文档格式.docx
- 文档编号:13058162
- 上传时间:2022-10-04
- 格式:DOCX
- 页数:11
- 大小:13.29KB
最新奥鹏远程南开大学《数据科学导论》20春期末考核-参考答案文档格式.docx
《最新奥鹏远程南开大学《数据科学导论》20春期末考核-参考答案文档格式.docx》由会员分享,可在线阅读,更多相关《最新奥鹏远程南开大学《数据科学导论》20春期末考核-参考答案文档格式.docx(11页珍藏版)》请在冰豆网上搜索。
A高维B中维C低维D中高维
A高维|
3.聚类是一种()。
A有监督学习B无监督学习C强化学习D半监督学习
B无监督学习|
4.数据库中相关联的两张表都存储了用户的个人信息,但在用户的个人信息发生改变时只更新了一张表中的数据,这时两张表中就有了不一致的数据,这属于()
A异常值B缺失值
C不一致的值
D重复值
C不一致的值|
5.某商品的产量(X,件)与单位成本(Y,元/件)之间的回归方程为^Y=100-1.2X,这说明()。
A产量每增加一台,单位成本增加100元
B产量每增加一台,单位成本减少1.2元
C产量每增加一台,单位成本平均减少1.2元
D产量每增加一台,单位平均增加100元
C产量每增加一台,单位成本平均减少1.2元|
6.在k近邻法中,选择较小的k值时,学习的“近似误差”会(),“估计误差”会()。
A减小,减小B减小,增大C增大,减小D增大,增大
B减小,增大|
7.在回归分析中,自变量为(),因变量为()。
A离散型变量,离散型变量B连续型变量,离散型变量C离散型变量,连续型变量D连续型变量,连续型变量
D连续型变量,连续型变量|
8.手肘法的核心指标是()。
ASESBSSE
CRMSE
DMSE
BSSE|
9.特征选择的四个步骤中不包括()
A子集产生B子集评估C子集搜索
D子集验证
C子集搜索|
10.一元线性回归中,真实值与预测值的差称为样本的()。
A误差B方差C测差D残差
D残差|
11.K-means聚类适用的数据类型是()。
A数值型数据B字符型数据C语音数据D所有数据
A数值型数据|
12.以下哪些不是缺失值的影响()
A数据建模将丢失大量有用信息B数据建模的不确定性更加显著C对整体总是不产生什么作用
D包含空值的数据可能会使建模过程陷入混乱,导致异常的输出
C对整体总是不产生什么作用|
13.下列两个变量之间的关系中,哪个是函数关系()。
A人的性别和他的身高
B人的工资与年龄
C正方形的面积和边长
D温度与湿度
C正方形的面积和边长|
14.考虑下面的频繁3-项集的集
合:
{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5假}定数据集中只有5个项,采
用合并策略,由候选产生过程得到4-项集不包含()
A1,2,3,4
B1,2,3,5
C1,2,4,5
D1,3,4,5
C1,2,4,5|
15.单层感知机模型属于()模型。
A二分类的线性分类模型B二分类的非线性分类模型C多分类的线性分类模型D多分类的非线性分类模型
A二分类的线性分类模型|
16.系统日志收集的基本特征有()
A高可用性B高可靠性C可扩展性D高效率
A高可用性|B高可靠性|C可扩展性|
17.距离度量中的距离可以是()
A欧式距离B曼哈顿距离CLp距离
DMinkowski距离
A欧式距离|B曼哈顿距离|CLp距离|DMinkowski距离|
18.K-means聚类中K值选取的方法是()。
A密度分类法B手肘法
C大腿法
D随机选取
A密度分类法|B手肘法|
19.多层感知机的学习过程包含()。
A信号的正向传播B信号的反向传播C误差的正向传播D误差的反向传播
A信号的正向传播|D误差的反向传播|
20.一元回归参数估计的参数求解方法有()。
A最大似然法B距估计法C最小二乘法D欧式距离法
A最大似然法|B距估计法|C最小二乘法|
21.Jaccard系数只关心个体间共同具有的特征是否一致这个问题。
T对
F错
T对|
22.标准BP算法是在读取全部数据集后,对参数进行统一更新的算法。
F错|
23.使用SVD方法进行图像压缩不可以保留图像的重要特征。
24.特征选择和降维都是用于减少特征数量,进而降低模型复杂度、防止过度拟合。
25.一个人的身高与体重之间具有函数关系。
26.K均值(K-Means)算法是密度聚类。
27.数据科学可以回答复杂的问题,发现世界中隐藏的联系并预测和指导未来。
28.选择较小的k值,相当于用较小的邻域中的训练实例进行预测,学习的“近似误差”会减
小,“估计误差”会增大,预测结果会对近邻的点实例点非常敏感。
29.利用K近邻法进行分类时,使用不同的距离度量所确定的最近邻点都是相同的。
30.对于项集来说,置信度没有意义。
31.每个类的先验概率可以通过属于该类的训练记录所占的比例来估计。
32.当维度增加时,特征空间的体积增加得很快,使得可用的数据变得稠密。
33.利用K近邻法进行分类时,k值过小容易发生过拟合现象。
34.聚合方法是自底向上的方法。
35.平均减少的不纯度越大,则特征重要度越高。
36.##感知机足以解决任何复杂的分类问题。
37.判定系数取值范围为[0,1],判定系数越接近##,表明变量之间的相关性越强。
38.在线性回归分析中,当输入特征的维度从一维增加到d维
(1),则该问题为##问题。
39.多元线性回归中,在有统计学意义的前提下,标准化偏回归系数的绝对值越大,说明相应的自变量对y的作用##。
越大
40.在k近邻法中,通常采用##来选取最优的k值。
交叉验证法
41.单层感知机和多层感知机分别解决的是哪类问题?
42.为什么某些属性可能会降低朴素贝叶斯分类器的性能?
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 数据科学导论 最新 远程 南开大学 数据 科学 导论 20 期末 考核 参考答案