基于高分辨率影像的面向对象分类方法研究.docxVIP

基于高分辨率影像的面向对象分类方法研究.docx

  1. 1、本文档共6页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于高分辨率影像的面向对象分类方法研究 1 遥感影像的分类 过去,遥感图像的分辨率不高,图像的混合非常严重。因此,以往的遥感图像分类方法(监测分类或监测分类)是基于地下物的光谱信息进行的。如果没有考虑类似于元之间的相关性,空间信息的使用就很少。这是基于图像分类方法的瓶颈。这种方法无法解决“同物异谱”、“同谱异物”的难题, 并且分类精度受到局限。 随着遥感空间技术的发展, 遥感影像的分辨率越来越高。分辨率在10m以内的影像一般称为高分辨率遥感影像。这些数据具有丰富的空间信息、地物几何结构和纹理信息。并且, 在高分辨率影像中, 有意义的地物大多由非单一像元组成, 且相邻像元间的相关性高。对这种数据, 如仅利用传统的基于光谱的分类方法, 就会造成空间数据的大量冗余。面向对象的分类方法突破了传统分类法的瓶颈, 先以加入形状因子的方式对影像进行多尺度分割, 将相关性高的像元融合在一起, 形成同质图斑, 然后用面向对象的方法对地物进行认知, 主要是根据图像确定合理的分割参数及建立有意义的分类知识库。 eCognition中有两种分类方法:最邻近分类和隶属度函数分类。最邻近分类器是快速简单, 基于给定的特征空间和样本的分类方法。区分类别时, 特征空间可以是多维的, 因而, 这种方法被广泛采用。大多数相关的文献中所采用的也是这种分类法。隶属度函数法在区分类别时只用少数特征。本文则主要利用隶属度函数法并结合最邻近法对影像进行分类。 2 学习方法 2.1 影像中地物的分类 面向对象分类就是综合考虑目标的形状、纹理和光谱信息的一种高级分类方法。分类过程中, 首先将临近的像素分割成有意义的区域。然后, 运用人对地物的认知所产生的知识让电脑知道影像中到底存在什么地物。最后, 根据对地物的特征描述建立的语义知识库对图像进行判读。 2.2 图像处理流程 本次研究中面向对象的影像处理流程如图1。 2.3 对象的异质性指标 对某尺度的层次影像分割时, 从一个像元开始, 与其相邻对象进行计算, 若相邻的两个对象合并后的异质性指标小于给定的域值, 则合并, 否则不合并。当一轮合并结束后, 以上一轮生成的对象为基本单元, 继续与相邻对象进行计算, 这一过程持续到在用户指定的尺度上不能再进行任何对象的合并为止。 采用不同的尺度, 进行多次分割, 形成网络层次结构, 每一个分割都利用低一层的影像对象作为原料, 同时, 也遵循高一层中的对象边界限制。如果是不同的父对象, 那么相邻的对象不能进行合并。 对象异质性各指标的计算如下: (1) 对象的光谱 (spectral) 异质性指标hcolor: hcolor=∑cωc×σchcolor=∑cωc×σc(1) 其中ωc为图层的权重,σc为图层的标准差,c为图层数。 (2) 对象的形状 (shape) 异质性指标hshape: hshape=ωsmoothness×hsmoothness+ωcompatness×hcompactness(2) 其中形状的异质性指标是由平滑 (smoothness) 与紧密 (compactness) 这两个子异质性指标所构成,ωsmoothness与ωcompactness代表两者间的权重调配, 两者的和为1;平滑指标与紧密指标计算如式 (3) , (4) 所示: hsmoothness=nMerge×lMergebMerge?(nObj1lObj1bObj1+nObj2×lObj2bObj2)(3)hcompactness=nMerge×lMergenMerge√?(nObj1×lObj1nObj1√+nObj2×lObj2nObj2√)(4)hsmoothness=nΜerge×lΜergebΜerge-(nΟbj1lΟbj1bΟbj1+nΟbj2×lΟbj2bΟbj2)(3)hcompactness=nΜerge×lΜergenΜerge-(nΟbj1×lΟbj1nΟbj1+nΟbj2×lΟbj2nΟbj2)(4) 其中,l为对象的实际边长,b为对象的最短边长,n为对象面积;下标Obj1、Obj2、Merge分别表示合并前的两个对象和即将合并生成的对象。若平滑指标的权重较高, 分割后的对象边界较为平滑, 分割后的对象形状较为紧密。 (3) 对象的整体异质性指标h: h=ωcolor×hcolor+ωshape×hshape(5) ωcolor与ωshape代表光谱与形状两者间的权重调配, 两者之和为1, 亦可根据使用者的需求进行调整。 2.4 分类方法 eCognition中采用模糊分类, 有两种分类器:最邻近分类器和隶属度函数分类器。 (1) 属性大小的距离。对于c 对于每一个影像对象, 在特征空间中寻找最近的样本对象, 如果一个影像对象最近的样本对象属于A类, 那么这个对象将被划

文档评论(0)

uyyyeuuryw + 关注
实名认证
文档贡献者

专业文档制作

1亿VIP精品文档

相关文档