数据挖掘实训总结报告.docx
- 文档编号:23284629
- 上传时间:2023-05-15
- 格式:DOCX
- 页数:14
- 大小:201.67KB
数据挖掘实训总结报告.docx
《数据挖掘实训总结报告.docx》由会员分享,可在线阅读,更多相关《数据挖掘实训总结报告.docx(14页珍藏版)》请在冰豆网上搜索。
数据挖掘实训总结报告
项目1:
基于sklearn的数据分类挖掘
一、项目任务
①熟悉sklearn数据挖掘的基本功能。
②进行用朴素贝叶斯、KNN、决策树C4.5、SVM算法进行数据分类分析。
二、项目环境及条件
Øsklearn-0.18.0
Øpython-2.7.13
Ønumpy-1.11.3+mkl-cp27-cp27m-win_amd64
Øscipy-0.19.0-cp27-cp27m-win_amd64
Ømatplotlib-1.5.3-cp27-cp27m-win_amd64
三、实验数据
Iris数据集
Iris数据集是常用的分类实验数据集,由Fisher,1936收集整理。
Iris也称鸢尾花卉数据集,是一类多重变量分析的数据集。
数据集包含150个数据集,分为3类,每类50个数据,每个数据包含4个属性。
可通过花萼长度,花萼宽度,花瓣长度,花瓣宽度4个属性预测鸢尾花卉属于(Setosa,Versicolour,Virginica)三个种类中的哪一类。
Digits数据集
美国著名数据集NIST的子集,模式识别常用实验数据集,图像属于灰度图像。
分辨率为8x8
四、项目内容及过程
1.读取数据集
从sklearn中读取iris和digits数据集并测试打印
fromsklearnimportdatasets
iris=datasets.load_iris()
digits=datasets.load_digits()
print'iris:
',iris.data,'\ndigits:
',digits.data
打印的数据集存在numpy.ndarray中,ndarray会自动省略较长矩阵的中间部分。
Iris数据集的样本数据为其花瓣的各项属性
Digits数据集的样本数据为手写数字图像的像素值
2.划分数据集
引入sklearn的model_selection使用train_test_split划分digits数据集,训练集和测试集比例为8:
2
fromsklearn.model_selectionimporttrain_test_split
x_train,x_test,y_train,y_test=train_test_split(digits.data,digits.target,test_size=0.2)
print'x_train:
',x_train,'\nx_test:
',x_test,'\ny_train:
',y_train,'\ny_test:
',y_test
3.使用KNN和SVM对digits测试集分类
引用sklearn的svm.SVC和neighbors.KNeighborsClassifier模块调用算法,使用classification_report查看预测结果的准确率和召回率
fromsklearn.metricsimportclassification_report
fromsklearnimportneighbors
clf=neighbors.KNeighborsClassifier()
clf.fit(x_train,y_train)
y_pred=clf.predict(x_test)
printclassification_report(y_test,y_pred)
fromsklearn.svmimportSVC
clf=SVC()
clf.fit(x_train,y_train)
y_pred=clf.predict(x_test)
printclassification_report(y_test,y_pred)
KNN的预测结果:
所有数字的预测正确率几乎达到了100%
SVM的预测结果:
对部分数字的预测误差较大,基本情况不如KNN
考虑SVM分类器的特性,在分类前对特征值进行标准化后再分类:
fromsklearnimportpreprocessing
min_max_scaler=preprocessing.MinMaxScaler()
x_train=min_max_scaler.fit_transform(x_train)
x_test=min_max_scaler.fit_transform(x_test)
标准化数据后SVM的预测结果达到了KNN的准度:
4.使用贝叶斯和决策树对iris数据集分类
fromsklearn.model_selectionimporttrain_test_split
x_train,x_test,y_train,y_test=train_test_split(iris.data,iris.target,test_size=0.4)
fromsklearn.metricsimportclassification_report
fromsklearnimportnaive_bayes
clf=naive_bayes.GaussianNB()
clf.fit(x_train,y_train)
y_pred=clf.predict(x_test)
printclassification_report(y_test,y_pred)
fromsklearnimporttree
clf=tree.DecisionTreeClassifier()
clf.fit(x_train,y_train)
y_pred=clf.predict(x_test)
printclassification_report(y_test,y_pred)
决策树和贝叶斯都有较好的分类效果
五、实验结果分析
为什么用svm和knn处理digits数据集,用tree和bayes处理iris数据集,这是一个经验问题。
我们都知道digits数据集的每一个特征就是像素点的像素值,他们的维度都是在0~255以内;像素点之间的维度完全一致,互相没有优先级。
这种情况下使用线性分类器如KNN、SVM、Logistic会有更好的效果。
而iris数据集虽然长度和宽度维度差不多相同,但是两者之间有优先级的区分,按照人脑分类的思维方式可能是先按照长度判断再按照宽度等思维方式,很接近决策树的算法原理,贝叶斯同样。
所以概率性分类器有更好的效果。
实际情况也是使用SVM预测iris的结果和Bayes预测digits的结果不甚理想(虽然也有很高的准度了)。
当然,通过调整分类器的参数,能使各个分类器的预测结果都达到满意结果,综合表现还是KNN更抢眼,能在各种数据集面前都有出色表现,但KNN在训练样本数量达到一定程度后,有超高的计算复杂度。
所以面对实际情况,选用什么分类器,如何调节参数都是值得深思的问题。
项目2:
基于sklearn的数据聚类挖掘
一、实验任务
①熟悉sklearn数据挖掘平台的基本功能。
②用K-Means进行数据聚类分析。
二、实验环境及条件
Øsklearn-0.18.0
Øpython-2.7.13
Ømatplotlib-1.5.3-cp27-cp27m-win_amd64
Ønumpy-1.11.3+mkl-cp27-cp27m-win_amd64
Øscipy-0.19.0-cp27-cp27m-win_amd64
三、实验数据
随机产生的100个坐标点,范围为[0,100]
四、实验内容及过程
1.随机产生坐标值
产生的随机值在0-100,因为sklearn的k-means模块要求输入的坐标形式为[[x0,y0],…,[x…,y…],…,[xn,yn]],而实际产生的是[x0,…,xn]和[y0,…,yn],所以还需要对坐标进行一次转换
fromsklearn.clusterimportKMeans
importnumpyasnp
importmatplotlib.pyplotasplt
importrandom
defcreate_coordinate():
x,y=[],[]
foriinrange(100):
x.append(random.randint(0,100))
y.append(random.randint(0,100))
returnx,y
x,y=create_coordinate()
old_coordinate=[[x[i],y[i]]foriinrange(100)]
coordinate=np.array(old_coordinate)
printold_coordinate
产生的随机坐标值:
2.创建做图函数
使用k-means对坐标点分为3类,对0类标为红色,1类标为绿色,2类标为蓝色。
并将三类坐标的中心点以‘*’表示在图中
defcreate_chart(x,y,label,center):
x_0=[x[i]foriinrange(len(x))iflabel[i]==0]
x_1=[x[i]foriinrange(len(x))iflabel[i]==1]
x_2=[x[i]foriinrange(len(x))iflabel[i]==2]
y_0=[y[i]foriinrange(len(y))iflabel[i]==0]
y_1=[y[i]foriinrange(len(y))iflabel[i]==1]
y_2=[y[i]foriinrange(len(y))iflabel[i]==2]
plt.scatter(x_0,y_0,c='r')
plt.scatter(x_1,y_1,c='g')
plt.scatter(x_2,y_2,c='b')
plt.scatter([i[0]foriincenter],[i[1]foriincenter],c='m',s=600,marker='*')
plt.grid()
plt.show()
3.使用k-means聚类并预测新增点的类别
kmeans=KMeans(n_clusters=3,random_state=0).fit(coordinate)
printkmeans.predict([[0,0],[50,50],[100,100]])
create_chart(x,y,kmeans.labels_,kmeans.cluster_centers_)
对新点的预测:
221
点的聚类情况:
五、实验结果分析
这次试验,使用sklearn的k-means对100个坐标点聚类。
K-means因为其本身算法的原因,点数越多聚类速度越慢。
所以在20个点和100个点的聚类时间上有很大差距。
聚类问题不同于分类问题,没有明确的预测和分类结果,聚类时对数据的边界可能会各不相同,聚类问题在用户画像/个性化推荐等应用上有较好地发挥。
实验3:
在Python程序中引用sklearn
一、实验任务
①用Python开发一个综合部分挖掘算法的演示程序,核心算法来自sklearn类库。
②演示程序界面友好。
二、实验环境及条件
Øsklearn-0.18.0
Øpython-2.7.13
Ømatplotlib-1.5.3-cp27-cp27m-win_amd64
Ønumpy-1.11.3+mkl-cp27-cp27m-win_amd64
Øscipy-0.19.0-cp27-cp27m-win_amd64
ØPyQt4
三、实验数据
Iris数据集
Iris数据集是常用的分类实验数据集,由Fisher,1936收集整理。
Iris也称鸢尾花卉数据集,是一类多重变量分析的数据集。
数据集包含150个数据集,分为3类,每类50个数据,每个数据包含4个属性。
可通过花萼长度,花萼宽度,花瓣长度,花瓣宽度4个属性预测鸢尾花卉属于(Setosa,Versicolour,Virginica)三个种类中的哪一类。
Digits数据集
美国著名数据集NIST的子集,模式识别常用实验数据集,图像属于灰度图像。
分辨率为8x8
四、实验内容及过程
使用PyQt4创建windows窗体,并提供可选择的分类方式:
ØSVM——支持向量机算法
ØKNN——K邻近算法
ØBayes——朴素贝叶斯算法
ØTree——C4.5决策树算法
ØLogistic——Logistic回归算法
可选择的归一化方式:
ØStandard-标准归一化
ØMaxAndMin-最大最小归一化
可选择的验证比例
Ø可选范围——(0,1)
可调节的分类器参数
Ø根据具体分类器设置参数
部分代码
Ø确认按钮响应事件
defOKPushButton_OnClick(self):
data_name=self.data_comboBox.currentText()
classify_name=self.classify_comboBox.currentText()
normalization_name=self.normalization_comboBox.currentText()
parameter_string=self.parameter_text.toPlainText()
validation_string=self.validation_text.text()
y_test,y_pred=self.load_datasets_and_classify(data_name,classify_name,normalization_name,parameter_string,validation_string)
fromsklearn.metricsimportclassification_report
self.descTextEdit.setText(classification_report(y_test,y_pred))
Ø分类算法执行
defload_datasets_and_classify\
(self,data_name,classify_name,normalization_name,parameter_string,validation_string):
fromsklearnimportdatasets
fromsklearn.model_selectionimporttrain_test_split
rate=0.2
ifvalidation_string!
='':
try:
rate=float(validation_string)
except:
self.alert_info(u"输入的数值必须是0~1的浮点数")
return
ifdata_name=='iris':
origin_data=datasets.load_iris()
elifdata_name=='digits':
origin_data=datasets.load_digits()
else:
self.alert_info(u"未知数据集")
return
data=origin_data.data
target=origin_data.target
ifnormalization_name=='standard':
fromsklearnimportpreprocessing
scaler=preprocessing.StandardScaler().fit(x_train)
scaler.transform(x_train)
scaler.transform(x_test)
elifnormalization_name=='max_min':
fromsklearnimportpreprocessing
min_max_scaler=preprocessing.MinMaxScaler()
x_train=min_max_scaler.fit_transform(x_train)
x_test=min_max_scaler.fit_transform(x_test)
elifnormalization_name=='none':
pass
else:
self.alert_info(u"未知归一化方式")
return
Ø程序演示结果
五、实验结果分析
使用PyQt4创建windows窗体,然后结合实验1和2的部分代码生成代码演示程序。
说句实话,不太清楚这个试验到底要干嘛,为了给演示程序的界面添加控件就花了很多时间,算是学习到如何使用python创建windows应用程序了。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 数据 挖掘 总结报告