人工智能基础 课件 4.1~4.8 客户流失分类.pptx

人工智能基础 课件 4.1~4.8 客户流失分类.pptx

  1. 1、本文档共27页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

客户流失分类

学习目标—4.1—

熟练掌握机器学习的步骤理解支持向量机的原理理解决策树的原理了解集成学习的原理

项目引导—4.2—

4.2.1问题引导通过学习我们已经知道了如何使用逻辑回归解决分类问题,但是逻辑回归并不是解决分类问题的唯一方法。你在生活中遇到分类问题,会如何解决呢?(1)请写出一个你解决生活中分类问题的方法。(2)分组讨论各个同学的方法。

小明打开“橙现智能”软件,发现在“模型”选项卡中有很多算法,比如有“支持向量机”“树”等。这些算法可以用来做分类吗?4.2.2初步分析试一试尝试使用“支持向量机”和“树”小部件,分析上一章的贫困生判别问题。

知识准备—4.3—

支持向量机对较小数据量的问题有较好的效果,但是很多情况下其结果缺乏良好的解释性。决策树算法在数据量足够的情况下分类效果好,结果直观,解释性强,是一种经常使用的算法。

项目实战—4.4—

4.4.1数据说明我们先试一试能否使用已经学过的模型方法解决这个问题,然后再试试支持向量机的方法。预测电信公司客户流失率开放数据源

21个字段的内容分别如表所示。4.4.1数据说明

支持向量机—4.5—

支持向量机(SupportVectorMachine,SVM)是分类与回归分析中的一种算法。在二维空间的分类问题中,支持向量机就是找到一条能将数据最好分类的线。

4.5.1支持向量是什么每个点都可以看作是从原点出发指向此点的一个向量。支持向量机算法使用这些支持向量作为支撑点,使边界尽可能宽。

在数学中,向量(也称矢量),指具有大小(Magnitude)和方向的量。它可以形象化地表示为带箭头的线段。箭头所指代表向量的方向;线段长度代表向量的大小。与向量对应的量叫作数量(物理学中称标量),数量(或标量)只有大小,没有方向。4.5.1支持向量是什么

4.5.1支持向量是什么?

我们仅从二者的损失函数角度了解二者对数据的敏感程度的区别,其中,支持向量机的损失函数是Hingeloss,而逻辑回归损失函数是Logisticloss。4.5.2逻辑回归与支持向量机的比较

损失函数值越小模型越好。在模型训练的时候,其实就是将损失函数值不停降低。从图4-12可见,如果真实值为1的话,两个损失函数都是左侧大右侧小,训练模型大致就是尽量让取值靠右。4.5.2逻辑回归与支持向量机的比较

观察二者的损失函数,我们可以注意到以下四点:4.5.2逻辑回归与支持向量机的比较Hingeloss没有Logisticloss上升得快。也就是说,Logisticloss对于异常值会有更大的惩罚,导致逻辑回归对异常点的容忍程度相对较低。不管哪个损失函数,即使分类对了,在边界附近的值也会受到惩罚,这导致二者都会要求能够更好地分类,从而使各个值能够尽可能地远离边界。即使一个值被确信地分类了,也就是它离边界很远Logisticloss也不会变为0,这导致逻辑回归进一步要求所有点都能够进一步远离边界。

如果一个值被比较好地分类了,也就是它离边界比较远,Hingeloss立即变为0。这导致支持向量机并不在乎较远的点到底在哪,它只在意边界附近的点(支持向量)。在意附近的点是因为根据第二点,即使支持向量划分正确Hingeloss也不为0,导致支持向量机仅仅想要将支持向量推离边界,直到Hingeloss为0。4.5.2逻辑回归与支持向量机的比较

基于以上四点,二者的分类结果会出现以下两种显著区别:4.5.2逻辑回归与支持向量机的比较逻辑回归尽可能提高所有点分类正确的概率,而支持向量机尝试最大化由支持向量确定的边界距离。逻辑回归对错误的承受能力更低,它会尽可能地要求所有值都正确分类。支持向量机对错误承受能力相对较高,它的目的是更多地将边界拓宽。

项目实战—4.6—

这个项目中,我们使用树模型搭建工作流。试一试尝试根据前面知识,用“树”小节点搭建客户流失分类工作流。

决策树—4.7—

决策树(DecisionTree),就是一个树形结构,树内部的每一个节点代表的是一个特征,树的分叉代表根据某特征的分类规则,而树的每一个叶子节点代表一个最终类别。树的最高层就是根节点。

图所示的就是客户流失的决策树描述。图中,背景颜色越红代表流失率越高,背景颜色越浅代表流失率越低。我们要判断客户流失情况,发现使用Contract可以更好地分类,就使用这个特征做“根”,OneyearorTwoyear分为一类,Month-to-month分为另一类。

文档评论(0)

balala11 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档