机器学习的研究教学文稿.docx
- 文档编号:4613678
- 上传时间:2022-12-07
- 格式:DOCX
- 页数:8
- 大小:23.36KB
机器学习的研究教学文稿.docx
《机器学习的研究教学文稿.docx》由会员分享,可在线阅读,更多相关《机器学习的研究教学文稿.docx(8页珍藏版)》请在冰豆网上搜索。
机器学习的研究教学文稿
机器学习的研究
学号:
1406110202
姓名:
曹塬
班级:
电信14-2
学院:
电子与信息工程学院
2015.5.25
【摘要】:
本文首先简要概述机器学习的早期研究情况,接着介绍当前机器学习的算法,并介绍几个机器学习的例子。
【前言】:
机器学习是继专家系统之后人工智能应用的又一重要研究领域,也是人工智能和神经计算的核心研究课题之一。
现有的计算机系统和人工智能系统没有什么学习能力,至多也只有非常有限的学习能力,因而不能满足科技和生产提出的新要求。
对机器学习的讨论和机器学习研究的进展,必将促使人工智能和整个科学技术的进一步发展。
1.机器学习的发展
1.1机器学习的背景及意义
学习是人类具有的一种重要智能行为,但究竟什么是学习,长期以来却众说纷纭。
社会学家、逻辑学家和心理学家都各有其不同的看法。
按照人工智能大师西蒙的观点,学习就是系统在不断重复的工作中对本身能力的增强或者改进,使得系统在下一次执行同样任务或相同类似的任务时,会比现在做得更好或效率更高。
西蒙对学习给出的定义本身,就说明了学习的重要作用。
在人类社会中,不管一个人有多深的学问,多大的本领,如果他不善于学习,我们都不必过于看重他。
因为他的能力总是停留在一个固定的水平上,不会创造出新奇的东西。
但一个人若具有很强的学习能力,则不可等闲视之了。
机器具备了学习能力,其情形完全与人类似。
什么是机器学习?
迄今尚没有统一的定义,由其名字可理解为机器学习是研究如何使用机器来模拟人类学习活动的一门学科。
稍微严格的提法是机器学习是一门研究机器获取新知识和新技能,并识别现有知识的学问。
这里所说的“机器”,指的就是计算机,现在是电子计算机,以后还可能是种子计算机、光子计算机或神经计算机等等。
机器能否像人类一样能具有学习能力呢?
1959年美国的塞缪尔(Samuel)设计了一个下棋程序,这个程序具有学习能力,它可以在不断的对弈中改善自己的棋艺。
4年后,这个程序战胜了设计者本人。
又过了3年,这个程序战胜了美国一个保持8年之久的常胜不败的冠军。
这个程序向人们展示了机器学习的能力,提出了许多令人深思的社会问题与哲学问题。
机器的能力是否能超过人的,很多持否定意见的人的一个主要论据是:
机器是人造的,其性能和动作完全是由设计者规定的,因此无论如何其能力也不会超过设计者本人。
这种意见对不具备学习能力的机器来说的确是对的,可是对具备学习能力的机器就值得考虑了,因为这种机器的能力在应用中不断地提高,过一段时间之后,设计者本人也不知它的能力到了何种水平。
1.2机器学习定义及发展
机器学习(MachineLearning)是研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。
它是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域,它主要使用归纳、综合而不是演绎。
学习能力是智能行为的一个非常重要的特征,但至今对学习的机理尚不清楚。
人们曾对机器学习给出各种定义。
H.A.Simon认为,学习是系统所作的适应性变化,使得系统在下一次完成同样或类似的任务时更为有效。
R.s.Michalski认为,学习是构造或修改对于所经历事物的表示。
从事专家系统研制的人们则认为学习是知识的获取。
这些观点各有侧重,第一种观点强调学习的外部行为效果,第二种则强调学习的内部过程,而第三种主要是从知识工程的实用性角度出发的。
机器学习在人工智能的研究中具有十分重要的地位。
一个不具有学习能力的智能系统难以称得上是一个真正的智能系统,但是以往的智能系统都普遍缺少学习的能力。
例如,它们遇到错误时不能自我校正;不会通过经验改善自身的性能;不会自动获取和发现所需要的知识。
它们的推理仅限于演绎而缺少归纳,因此至多只能够证明已存在事实、定理,而不能发现新的定理、定律和规则等。
随着人工智能的深入发展,这些局限性表现得愈加突出。
正是在这种情形下,机器学习逐渐成为人工智能研究的核心之一。
它的应用已遍及人工智能的各个分支,如专家系统、自动推理、自然语言理解、模式识别、计算机视觉、智能机器人等领域。
其中尤其典型的是专家系统中的知识获取瓶颈问题,人们一直在努力试图采用机器学习的方法加以克服。
机器学习的研究是根据生理学、认知科学等对人类学习机理的了解,建立人类学习过程的计算模型或认识模型,发展各种学习理论和学习方法,研究通用的学习算法并进行理论上的分析,建立面向任务的具有特定应用的学习系统。
这些研究目标相互影响相互促进。
自从1980年在卡内基--梅隆大学召开第一届机器学术研讨会以来,机器学习的研究工作发展很快,已成为中心课题之一。
机器学习是人工智能研究较为年轻的分支,它的发展过程大体上可分为4个时期:
第一阶段是在50年代中叶到60年代中叶,属于热烈时期;
第二阶段是在60年代中叶至70年代中叶,被称为机器学习的冷静时期;
第三阶段是从70年代中叶至80年代中叶,称为复兴时期;
机器学习的最新阶段始于1986年。
2.机器学习的算法
机器学习(MachineLearning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。
专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。
它是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域,它主要使用归纳、综合而不是演绎。
2.1机器学习综合分类
综合考虑各种学习方法出现的历史渊源、知识表示、推理策略、结果评估的相似性、研究人员交流的相对集中性以及应用领域等诸因素。
将机器学习方法[1]区分为以下六类:
1)经验性归纳学习(empiricalinductivelearning)
经验性归纳学习采用一些数据密集的经验方法(如版本空间法、ID3法,定律发现方法)对例子进行归纳学习。
其例子和学习结果一般都采用属性、谓词、关系等符号表示。
它相当于基于学习策略分类中的归纳学习,但扣除联接学习、遗传算法、加强学习的部分。
2)分析学习(analyticlearning)
分析学习方法是从一个或少数几个实例出发,运用领域知识进行分析。
其主要特征为:
•推理策略主要是演绎,而非归纳;
•使用过去的问题求解经验(实例)指导新的问题求解,或产生能更有效地运用领域知识的搜索控制规则。
分析学习的目标是改善系统的性能,而不是新的概念描述。
分析学习包括应用解释学习、演绎学习、多级结构组块以及宏操作学习等技术。
3)类比学习
它相当于基于学习策略分类中的类比学习。
在这一类型的学习中比较引人注目的研究是通过与过去经历的具体事例作类比来学习,称为基于范例的学习(case_basedlearning),或简称范例学习。
4)遗传算法(geneticalgorithm)
遗传算法模拟生物繁殖的突变、交换和达尔文的自然选择(在每一生态环境中适者生存)。
它把问题可能的解编码为一个向量,称为个体,向量的每一个元素称为基因,并利用目标函数(相应于自然选择标准)对群体(个体的集合)中的每一个个体进行评价,根据评价值(适应度)对个体进行选择、交换、变异等遗传操作,从而得到新的群体。
遗传算法适用于非常复杂和困难的环境,比如,带有大量噪声和无关数据、事物不断更新、问题目标不能明显和精确地定义,以及通过很长的执行过程才能确定当前行为的价值等。
同神经网络一样,遗传算法的研究已经发展为人工智能的一个独立分支,其代表人物为霍勒德(J.H.Holland)。
5)联接学习
典型的联接模型实现为人工神经网络,其由称为神经元的一些简单计算单元以及单元间的加权联接组成。
6)增强学习(reinforcementlearning)
增强学习的特点是通过与环境的试探性(trialanderror)交互来确定和优化动作的选择,以实现所谓的序列决策任务。
在这种任务中,学习机制通过选择并执行动作,导致系统状态的变化,并有可能得到某种强化信号(立即回报),从而实现与环境的交互。
强化信号就是对系统行为的一种标量化的奖惩。
系统学习的目标是寻找一个合适的动作选择策略,即在任一给定的状态下选择哪种动作的方法,使产生的动作序列可获得某种最优的结果(如累计立即回报最大)。
在综合分类中,经验归纳学习、遗传算法、联接学习和增强学习均属于归纳学习,其中经验归纳学习采用符号表示方式,而遗传算法、联接学习和加强学习则采用亚符号表示方式;分析学习属于演绎学习。
实际上,类比策略可看成是归纳和演绎策略的综合。
因而最基本的学习策略只有归纳和演绎。
从学习内容的角度看,采用归纳策略的学习由于是对输入进行归纳,所学习的知识显然超过原有系统知识库所能蕴涵的范围,所学结果改变了系统的知识演绎闭包,因而这种类型的学习又可称为知识级学习;而采用演绎策略的学习尽管所学的知识能提高系统的效率,但仍能被原有系统的知识库所蕴涵,即所学的知识未能改变系统的演绎闭包,因而这种类型的学习又被称为符号级学习。
2.2机器学习的十大经典算法
2.2.1C4.5算法:
C4.5是机器学习算法中的一个分类决策树算法,它是决策树(决策树也就是做决策的节点间的组织方式像一棵树,其实是一个倒树)核心算法。
ID3的改进算法,所以基本上了解了一半决策树构造方法就能构造它。
决策树构造方法其实就是每次选择一个好的特征以及分裂点作为当前节点的分类条件。
C4.5相比于ID3改进的地方有:
1)用信息增益率来选择属性。
ID3选择属性用的是子树的信息增益,这里可以用很多方法来定义信息,ID3使用的是熵(entropy,熵是一种不纯度度量准则),也就是熵的变化值.
而C4.5用的是信息增益率。
对,区别就在于一个是信息增益,一个是信息增益率。
一般来说率就是用来取平衡用的,就像方差起的作用差不多,
比如有两个跑步的人,一个起点是10m/s的人、其10s后为20m/s;
另一个人起速是1m/s、其1s后为2m/s。
如果紧紧算差值那么两个差距就很大了,如果使用速度增加率(加速度,即都是为1m/s^2)来衡量,2个人就是一样的加速度。
因此,C4.5克服了ID3用信息增益选择属性时偏向选择取值多的属性的不足。
2)在树构造过程中进行剪枝,在构造决策树的时候,那些挂着几个元素的节点,不考虑最好,不然容易导致overfitting。
3)对非离散数据也能处理。
4)能够对不完整数据进行处理。
2.2.2Thek-meansalgorithm即K-Means算法:
k-meansalgorithm算法是一个聚类算法,把n的对象根据他们的属性分为k个分割(k 它与处理混合正态分布的最大期望算法(本十大算法第五条)很相似,因为他们都试图找到数据中自然聚类的中心。 它假设对象属性来自于空间向量,并且目标是使各个群组内部的均方误差总和最小。 2.2.3朴素贝叶斯算法: 朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法。 算法的基础是概率问题,分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类。 朴素贝叶斯假设是约束性很强的假设,假设特征条件独立,但朴素贝叶斯算法简单,快速,具有较小的出错率。 在朴素贝叶斯的应用中,主要研究了电子邮件过滤以及文本分类研究。 2.2.4K最近邻分类算法(KNN) 分类思想比较简单,从训练样本中找出K个与其最相近的样本,然后看这k个样本中哪个类别的样本多,则待判定的值(或说抽样)就属于这个类别。 缺点: 1)K值需要预先设定,而不能自适应 2)当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数。 该算法适用于对样本容量比较大的类域进行自动分类。 2.2.5EM最大期望算法 EM算法是基于模型的聚类方法,是在概率模型中寻找参数最大似然估计的算法,其中概率模型依赖于无法观测的隐藏变量。 E步估计隐含变量,M步估计其他参数,交替将极值推向最大。 EM算法比K-means算法计算复杂,收敛也较慢,不适于大规模数据集和高维数据,但比K-means算法计算结果稳定、准确。 EM经常用在机器学习和计算机视觉的数据集聚(DataClustering)领域。 2.2.6PageRank算法 是google的页面排序算法,是基于从许多优质的网页链接过来的网页,必定还是优质网页的回归关系,来判定所有网页的重要性。 (也就是说,一个人有着越多牛X朋友的人,他是牛X的概率就越大。 )优点: 完全独立于查询,只依赖于网页链接结构,可以离线计算。 缺点: 1)PageRank算法忽略了网页搜索的时效性。 2)旧网页排序很高,存在时间长,积累了大量的in-links,拥有最新资讯的新网页排名却很低,因为它们几乎没有in-links。 2.2.7AdaBoost Adaboost是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个 更强的最终分类器(强分类器)。 其算法本身是通过改变数据分布来实现的,它根据每次训练集之中每个样本的分类是否正确,以及上次的总体分类的准确率,来确定每个样本的权值。 将修改过权值的新数据集送给下层分类器进行训练,最后将每次训练得到的分类器最后融合起来,作为最后的决策分类器。 整个过程如下所示: 1.先通过对N个训练样本的学习得到第一个弱分类器; 2.将分错的样本和其他的新数据一起构成一个新的N个的训练样本,通过对这个样本的学习得到第二个弱分类器; 3.将和都分错了的样本加上其他的新样本构成另一个新的N个的训练样本,通过对这个样本的学习得到第三个弱分类器; 4.如此反复,最终得到经过提升的强分类器。 目前AdaBoost算法广泛的应用于人脸检测、目标识别等领域。 2.2.8Apriori算法 Apriori算法是一种挖掘关联规则的算法,用于挖掘其内含的、未知的却又实际存在的数据关系,其核心是基于两阶段频集思想的递推算法。 Apriori算法分为两个阶段: 1)寻找频繁项集 2)由频繁项集找关联规则 2.2.9SVM支持向量机 支持向量机是一种基于分类边界的方法。 其基本原理是(以二维数据为例): 如果训练数据分布在二维平面上的点,它们按照其分类聚集在不同的区域。 基于分类边界的分类算法的目标是,通过训练,找到这些分类之间的边界(直线的――称为线性划分,曲线的――称为非线性划分)。 对于多维数据(如N维),可以将它们视为N维空间中的点,而分类边界就是N维空间中的面,称为超面(超面比N维空间少一维)。 线性分类器使用超平面类型的边界,非线性分类器使用超曲面。 支持向量机的原理是将低维空间的点映射到高维空间,使它们成为线性可分,再使用线性划分的原理来判断分类边界。 在高维空间中是一种线性划分,而在原有的数据空间中,是一种非线性划分。 SVM在解决小样本、非线性及高维模式识别问题中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中。 2.2.2CART分类与回归树 是一种决策树分类方法,采用基于最小距离的基尼指数估计函数,用来决定由该子数 据集生成的决策树的拓展形。 如果目标变量是标称的,称为分类树;如果目标变量是连续的,称为回归树。 分类树是使用树结构算法将数据分成离散类的方法。 3.机器学习在生活中的实例 机器学习问题到处都是,它们组成了日常使用的网络或桌面软件的核心或困难部分。 推特上“想来试试吗”的建议和苹果的Siri语音理解系统就是实例。 以下,是十个真正有关机器学习到底是什么的的实例: 1)垃圾邮件检测: 根据邮箱中的邮件,识别哪些是垃圾邮件,哪些不是。 这样的模型,可以程序帮助归类垃圾邮件和非垃圾邮件。 这个例子,我们应该都不陌生。 2)信用卡欺诈检测: 根据用户一个月内的信用卡交易,识别哪些交易是该用户操作的,哪些不是。 这样的决策模型,可以帮助程序退还那些欺诈交易。 3)数字识别: 根据信封上手写的邮编,识别出每一个手写字符所代表的数字。 这样的模型,可以帮助程序阅读和理解手写邮编,并根据地利位置分类信件。 4)语音识别: 从一个用户的话语,确定用户提出的具体要求。 这样的模型,可以帮助程序能够并尝试自动填充用户需求。 带有Siri系统的iPhone就有这种功能。 5)人脸识别: 根据相册中的众多数码照片,识别出那些包含某一个人的照片。 这样的决策模型,可以帮助程序根据人脸管理照片。 某些相机或软件,如iPhoto,就有这种功能。 6)产品推荐: 根据一个用户的购物记录和冗长的收藏清单,识别出这其中哪些是该用户真正感兴趣,并且愿意购买的产品。 这样的决策模型,可以帮助程序为客户提供建议并鼓励产品消费。 登录Facebook或GooglePlus,它们就会推荐可能有关联的用户给你。 7)医学分析: 根据病人的症状和一个匿名的病人资料数据库,预测该病人可能患了什么病。 这样的决策模型,可以程序为专业医疗人士提供支持。 8)股票交易: 根据一支股票现有的和以往的价格波动,判断这支股票是该建仓、持仓还是减仓。 这样的决策模型,可以帮助程序为金融分析提供支持。 9)客户细分: 根据用户在试用期的的行为模式和所有用户过去的行为,识别出哪些用户会转变成该产品的付款用户,哪些不会。 这样的决策模型,可以帮助程序进行用户干预,以说服用户早些付款使用或更好的参与产品试用。 10)形状鉴定: 根据用户在触摸屏幕上的手绘和一个已知的形状资料库,判断用户想描绘的形状。 这样的决策模型,可以帮助程序显示该形状的理想版本,以绘制清晰的图像。 iPhone应用Instaviz就能做到这样。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 机器 学习 研究 教学 文稿