大连理工大学《人工智能》大作业题目及要求654.docx
- 文档编号:76511
- 上传时间:2022-10-02
- 格式:DOCX
- 页数:3
- 大小:75.51KB
大连理工大学《人工智能》大作业题目及要求654.docx
《大连理工大学《人工智能》大作业题目及要求654.docx》由会员分享,可在线阅读,更多相关《大连理工大学《人工智能》大作业题目及要求654.docx(3页珍藏版)》请在冰豆网上搜索。
题 目:
回归算法
1.谈谈你对本课程学习过程中的心得体会与建议
《人工智能》是计算机
2.《人工智能》课程设计,从以下5个题目中任选其一作答。
《人工智能》课程设计
题目二:
回归算法
要 求:
(1)撰写一份word文档,里面包括(常见的回归算法、基于实例的算法具体细节)章节。
(2)常见的回归算法包括:
最小二乘法(OrdinaryLeastSquare),逻辑回归(LogisticRegression),逐步式回归(StepwiseRegression),多元自适应回归样条(MultivariateAdaptiveRegressionSplines)以及本地散点平滑估计(LocallyEstimatedScatterplotSmoothing),请选择一个算法描述下算法核心思想
(3)随意选用一个实例实现你所选择的回归算法。
答:
回归是数学建模、分类和预测中最古老但功能非常强大的工具之一。
回归在工程、物理学、生物学、金融、社会科学等各个领域都有应用,是数据科学家常用的基本工具。
回归通常是机器学习中使用的第一个算法。
通过学习因变量和自变量之间的关系实现对数据的预测。
例如,对房价估计时,需要确定房屋面积(自变量)与其价格(因变量)之间的关系,可以利用这一关系来预测给定面积的房屋的价格。
2
可以有多个影响因变量的自变量。
常见的回归算法包括:
最小二乘法,逻辑回归,逐步式回归,多元自适应回归样条以及本地散点平滑估计。
一、最小二乘法的核心原理
最小二乘法(ordinaryleastsquares,简称OLS)的核心就是保证所有数据偏差的平方和最小(“平方”的在古时侯的称谓为“二乘”)。
如果有一个变量,我们用直线拟合一些点,直线方是y’=ax+b,每点偏差是y-y’,其中y是实际值,y’是估计值。
sum((y-y’)2)最小时,直线拟合最好。
上试代入y’,可得M=sum((y-(ax+b))2),对它求导取极值。
此时,x,y是已知的,未知的是a和b,所以分别求M对a和b的偏导,解出的a,b即回归系数,记作W。
线性回归就是计算参数W的过程。
有了W,就能将Y表示成多属性的加权线性组合。
假设有两个变量(多元回归)y’=w0+w1x1+w2x2,就变成了一个三维的问题,同样也用误差平方最小的方法M=sum((y’-(w0+w1x1+w2x2))^2),M对w0,w1,w2的偏导为0处是极值,然后解出w0,w1,w2。
更多元的情况见下面的公式推导。
预测时,用回归系数乘以输入值,再将结果加在一起就得到了预测值,一般用矩阵乘法实现。
二、最小二乘法的实例应用
比如,为研究某种鱼类的生长特征,测定了该鱼的体长(单位:
cm)和体重(单位:
kg),数据如表1,且己知该鱼体长与体重满足幂函数y=axb关系,利用表中数据确定a、b的值
表1
3
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工智能 大连理工大学 作业 题目 要求 654