海大机器学习-复习材料 .pdf

  1. 1、本文档共1页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

机器学习复习材料

1.在集成学习中需要有效的生成多样性大的个体学习器,一般思路是在学习过程中引入随机。,请问在

bagging中使用自动采样法属于数据样本扰动。

2.K-means算法属于原型聚类方式。

3.ID3算法要求特征必须离散化,信息增益可以用嫡来计算,选取信息增益最大的特征,作为树的根节点。

4.可以用于特征降维的方法包括主成分分析PCA、线性判别分析LDA、矩阵奇异值分SVD。

5.训练误差较小,测试误差较大

6.基因序列数据集、电影浏览数据集、股票市场数据集可以应用隐马尔科夫(HMM)模型的选项。

7.的深度的增加可能会造成随机森林数据过拟合。

.除了结构信息,欲确定一个隐马尔科夫模型还需确认状态转移概率、输出观测概率、初始状态概率。

9.有一类特征被称为冗余特征,它们所包含的信息能从其他特征中推演出来,去掉它们会减轻学习过程

的负担。

10.关于模型的度量,分类错误的样本数占样本总数的比例称为错误率,分类正确的样本数占样本总数的

比例称为精度。

11.层次聚类试图在不同层次上对数据集进行划分,从而形成树形的聚类结构。

12.k近邻学习在分类任务中可使用投票法,即将这k个样本中出现最多的类别标记作为预测结果,在回

归任务中可使用平均法,即将这k个样本的实值输出标记的平均值多为预测结果。

13.有两种策略常用来缓神经网路的过拟合问题,一种是早停,另一种是正则化。

14.当训练数据过少时更容易发生过拟合。

15.回归问题和分类问题都会发生过拟合。

16.在支持向量机训练好后,我们抛弃掉非支持向量的点,仍然可以对新样本进行分类。

17.模型的梯度快速增大,模型权重变为NaN值等现象表明训练过程中可能出现了梯度爆炸。

1.SVM对噪声具有较低的鲁棒性。

19.概率模型的训练过程就是参数估计的过程。

20.集成学习通过构建并结合多个学习器来完成学习任务。(先产生一组“个体学习器”,然后通过某种

策略将他们结合起来。)

21.贝叶斯主义学派认为参数是未观察到的随机变量,其本身也可有分布,因此,可假定参数服从一个先

验分布,然后基于观察到的的数据来计算参数的后验分布。

22.如果我们学习的模型是用于预测连续值,则此类学习任务称为“回归”。

23.通常假设样本空间中全体样本服从一个未知的“分布”D,我们获得的每个样本都是独立的从这个分布

上采样获得的,即“独立同分布”。

24.学习到的模型对应了关于数据的某种潜在的规律,叫做假设。

25.已知坐标轴中两点A(2,-2)B(-1,2),求这两点的曼哈顿距离(L1距离)和欧式距离(L2距离)。

L_1二|2—1)+|-2-2|二7

L_2二((2-(-1)广2+((-1)-2广2)=5

26.在一个回归任务上,模型在测试集上得到的结果为{16,14,8,12,6},真实标记为{16,10,7,14,

},求该模型的均方误差(MSE)o

MSE=l/mI^i=l)AmJ(f(x_i)-y_i)A2

=1/5((16-16)A2+(14-10)A2+(8-7)A2+(12-14)A2+(6-8)A2)

=5

文档评论(0)

文体创作 + 关注
实名认证
内容提供者

教师

1亿VIP精品文档

相关文档