《统计学—基于R》(第4版)(10)第10章 多元性回归.pptx

《统计学—基于R》(第4版)(10)第10章 多元性回归.pptx

  1. 1、本文档共24页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

第10章StatisticswithR统计学R 语言贾俊平贾俊平 2021-06-192021-06-19统计学—基于R—贾俊平10-2021-06-19

第10章贾俊平回归模型及其参数估计拟合优度和显著性检验多重共线性及其处理相对重要性和模型比较利用回归方程进行预测哑变量回归第10章 多元线性回归2021-06-19统计学—基于R—贾俊平10-2021-06-19

第10章思维导图统计学—基于R—贾俊平10-2021-06-19

第10章10.1 回归模型及其参数估计多元线性回归模型及其假定统计学—基于R—贾俊平10-2021-06-19

第10章10.1 回归模型及其参数估计多元线性回归模型的估计方程统计学—基于R—贾俊平10-2021-06-19

第10章10.1回归模型及其参数估计参数的最小二乘估计统计学—基于R—贾俊平10-2021-06-19

第10章10.1 回归模型及其参数估计参数的最小二乘估计——例题分析model1-lm(y~x1+x2+x3+x4+x5,data=example10_1)summary(model1)confint(model1,level=0.95)统计学—基于R—贾俊平10-2021-06-19

第10章10.2 拟合优度和显著性检验模型的拟合优度——多重决定系数——估计标准误差估计标准误差——对误差项 的标准差 的一个估计值,计算公式为详见R输出统计学—基于R—贾俊平10-2021-06-19

第10章10.2 拟合优度和显著性检验显著性检验——线性关系检验(F检验)检验因变量与所有自变量之间的线性关系是否显著也被称为总体的显著性检验检验方法是将回归均方(MSR)同残差均方(MSE)加以比较,应用F检验来分析二者之间的差别是否显著 如果是显著的,因变量与自变量之间存在线性关系 如果不显著,因变量与自变量之间不存在线性关系统计学—基于R—贾俊平10-2021-06-19

第10章10.2 拟合优度和显著性检验显著性检验——回归系数检验(t检验)详见R输出统计学—基于R—贾俊平10-2021-06-19

第10章10.3多重共线性及其处理多重共线性的识别#例题分析——计算VIF统计学—基于R—贾俊平10-2021-06-19将一个或多个相关的自变量从模型中剔除,使保留的自变量尽可能不相关如果要在模型中保留所有的自变量,则应 避免根据t统计量对单个参数进行检验 对因变量值的推断(估计或预测)的限定在自变量样本值的范围内

第10章10.3 多重共线性及其处理多重共线性的处理——变量选择——向前选择和向后剔除变量选择的方法主要有:向前选择、向后剔除、逐步回归等统计学—基于R—贾俊平10-2021-06-19向前选择从模型中没有自变量开始 对k个自变量分别拟合对因变量的一元线性回归模型,共有k个,然后找出F统计量的值最高的模型及其自变量(P值最小的),并将其首先引入模型分别拟合引入模型外的k-1个自变量的二元线性回归模型如此反复进行,直至模型外的自变量均无统计显著性为止向后剔除 先对因变量拟合包括所有k个自变量的回归模型。然后考察p(pk)个去掉一个自变量的模型(这些模型中在每一个都有k-1个自变量),使模型的SSE值减小最少的自变量被挑选出来并从模型中剔除 考察p-1个再去掉一个自变量的模型(这些模型中每一个都有k-2个自变量),使模型的SSE值减小最少的自变量被挑选出来并从模型中剔除如此反复进行,一直将自变量从模型中剔除,直至剔除一个自变量不会使SSE显著减小为止

第10章10.3 多重共线性及其处理多重共线性的处理——变量选择——逐步回归逐步回归将向前选择和向后剔除两种方法结合起来筛选自变量在增加了一个自变量后,它会对模型中所有的变量进行考察,看看有没有可能剔除某个自变量。如果在增加了一个自变量后,前面增加的某个自变量对模型的贡献变得不显著,这个变量就会被剔除按照方法不停地增加变量并考虑剔除以前增加的变量的可能性,直至增加变量已经不能导致SSE显著减少在前面步骤中增加的自变量在后面的步骤中有可能被剔除,而在前面步骤中剔除的自变量在后面的步骤中也可能重新进入到模型中R的逐步回归——信息最小准则(AIC)统计学—基于R—贾俊平10-2021-06-19R中的逐步回归以AIC信息准则为选择标准,选择使AIC最小的变量建立模型赤池信息准则也被称为AIC准则(Akaike’sInformationCriterion),由日本学者赤池于1973年提出除应用于线性模型的变量筛选外,还被应用于时间序列自回归模型阶数的确定AIC由两部分组成,一部分反映模型的拟合精度,一部分反映模型中参数的个数

文档评论(0)

心有千千结 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档