感知机和多分类课件.pptVIP

  1. 1、本文档共10页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

回顾:Fisher准则的基本原理,就是要找到一个最合适的投影轴,使两类样本在该轴上投影的交迭部分最少,从而使分类效果为最佳。

§4.3感知准则函数感知准则函数是五十年代由Rosenblatt提出的一种自学习n判别函数生成方法,由于Rosenblatt企图将其用于脑模型感知器,因此被称为感知准则函数。其特点是随意确定的判别函数初始值,在对样本分类训练过程中逐步修正直至最终确定。

4.3.1几个基本概念1.线性可分性设样本d维特征空间中描述,则两类别问题中线性决策面的一般形式可表示成:其中作特殊映射增广样本向量y与增广权向量a线性判别函数的齐次简化:nl线性判别函数的齐次简化使特征空间增加了一维,但保持了样本间的欧氏距离不变,对于分类效果也与原决策面相同,只是在Y空间中决策面是通过坐标原点的。

线性可分性广义线性判别函数思考一下,如果在两维空间存在一条不过原点的直线,ax+bx+c=0(A),采用增广向量形式:12那么,它在增加一维的三维空间中,aTY=0表示的是什么呢?答:一个过原点的平面,方程为ay+by+cy=0(B)。123(A)式与(B)式形式上略有不同,但当y=1时两者就一样了。3也就是说(B)式表示的平面与y=1子空间(一平面)的交线就是(A)式中表示的直线。3

线性可分性练习:设五维空间的线性方程为试求出其权向量与样本向量点积的表达式中的W,X以及增广权向量与增广样本向量形式中的a与Y。解:

线性可分性线性判别函数的齐次简化:n判别准则是:反过来说,如果存在一个权向量,使得对于任何都有,而对任何,都有则称这组样本集为线性可分的;否则称样本集为线性不可分的。,

§4.3.1几个基本概念2.样本的规范化根据线性可分的定义,如果样本集的,则必存在某个或某些权向量,使得是线性可分如果将第二类样本都取其反向向量,则有也就是说不管样本原来的类别标识,只要找到一个对全部样本都满足的权向量即可。上述过程称为样本的规范化,叫做规范化增广样本向量。在后面我们仍用y来表示。

§4.3.1几个基本概念3.解向量和解区?在线性可分的情况下,满足称为解向量,记为。,i=1,2,…,N的权向量?由满足上述条件的解向量组成的区域,就称作解区。?一般来说,对解区要加以限制,目的是使解向量更可靠,越靠近解区中间的解向量,越能对新的样本正确分类。?引入余量b0,并寻找满足的解向量,显然满足,位于原解区之中。

感知准则函数?感知准则函数方法是一种利用错分类对现决策权向量进行修正直至收敛的方法。这种方法只对线性可分情况适用。?在给定一个规范化增广样本集于任何一个增广权向量,可以计算的条件下,对。?如果该向量是一个能将此样本集正确分类的增广权向量,则应有?而对可导致错分类的增广权向量,则必有若干个y,使i,令被错分类的规范化增广样本组成的集合用y表k示,错分时,所以定义一准则函数能将该样本集正确分类的增广权向量,使。因此确定向量的问题变为对值的问题,这个准则函数就是感知准则函数。达到极小求极小值

§4.3.2感知准则函数准则函数的极小值:梯度下降算法?求准则函数的极小值问题,可以采用迭代法进行。?一个常用的方法是梯度下降算法,即对第k次迭代值,求其梯度向量,并令迭代向量沿此负梯度向量方向修正,可以以较快的速度到达准则函数的极小值。

§4.3.2感知准则函数梯度下降算法求增广权向量梯度下降算法的迭代公式为:感知准则函数利用梯度下降算法求增广权向量的做法,可简单叙述为:任意给定一向量初始值,第k+1次迭代时的权向量等于第k次的权向量加上被错分类的所有样本之和与的乘积。

§4.3.2感知准则函数迭代修正过程:?由于所有被a(k)错分类的样本必然都在以a(k)为法线的超平面的负侧,因而它们的总和也必然处于该侧。yk?a(k+1)修正时,就会使a(k+1)向错分类向量和趋近,有可能使这些错分类向量之和穿过超平面,或至少朝有利方向变动。+-

§4.3.2感知准则函数?现在我们把样本集看做一个不断重复出现的序列而逐个加以考虑。对于任意权向量a(k),如果他把某个样本分错了,则对a(k)做一次修正。这种方法称为单样本修正法。?由于仅在发现分错类时才修正a(k),所以只注意那些被分错类的样本就行了。因此经过简化后梯度下降算法可写成:①设a(1)=0,ρ=1。因为aTy1=0,被错分k②则a(2)=y,则y被错分类,③故a(3)=y+y,则y又被错分类,④故a(4)=a(3)+y,则y被错分类,⑤故a(5)=a(4)+y,则y被错分类,131311331⑥故a(6)=a(5)+y1我们反复地将y到y依次送到分类器检验,并在发生错

您可能关注的文档

文档评论(0)

151****3101 + 关注
官方认证
文档贡献者

该用户很懒,什么也没介绍

认证主体成都禄星动辰科技文化有限公司
IP属地四川
统一社会信用代码/组织机构代码
91510104MA6368873E

1亿VIP精品文档

相关文档