基于谱域-空间特征的半监督高光谱图像分类方法研究

来源 :厦门大学 厦门大学 | 被引量 : 0次 | 上传用户:fengyunwoaihui
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
高光谱遥感图像分类是图像研究领域的新热点问题,具有广泛的应用前景。随着近年来关注度的持续上升和研究投入的不断增加,已经取得一定的技术成果。然而,由于高光谱遥感图像本身的特殊性,使得其分类技术存在着维度高而训练集小、信息冗余、混合像素多等问题。针对这些问题,本文开展了基于谱域-空间特征的半监督高光谱图像分类方法研究,主要研究工作及创新点如下:  1.为了充分利用目标像素点的空间信息,提出将谱域和空间信息相结合的特征。目标像素点的空间信息包括:空间邻域像素点光谱信息和目标像素点自身空间位置信息。针对空间邻域像素点光谱信息对目标像素点的分类起积极辅助作用这一发现,提出了基于谱域-空域相结合的新特征,在此基础上,针对农作物区等具有规则形状、区域性强的高光谱遥感图像,引入目标像素点的空间位置信息作为特征描述的一部分,提出基于谱域-多空间信息的新特征。实验结果证明,引入空域特征,可以修正由外界因素所导致的“同物异谱”椒盐噪声点的谱域特征;引入空间位置信息,在一定程度上提高了具有强区域结构性的遥感图像的分类结果准确率,将单像素分类扩展成局部区域的可靠分类。  2.为了解决高空间分辨率带来的边缘混合像素点多的问题,提出了基于图割原理的二次分类方法。首先,在模糊支持向量机初步分类结果的基础上,通过训练样本集扩建和K-Medoids聚类算法获取每个类别的标准特征,作为图割算法中类别分类代价计算的基础。然后,基于图割原理,一方面根据目标像素点的光谱特征计算类别分类代价,另一方面根据空间邻域像素点的类别来计算空间分割代价,在初步分类结果的基础上,对目标像素点进行二次分类。实验结果表明,在模糊支持向量机初次分类结果的基础上,通过引入图割算法对图像进行二次分类,可以有效地修正分类结果,尤其是对位于结构边缘的混合像素点,提高了分类性能;采用双重筛选机制来扩建训练样本集,可以得到更为精确的类别标准特征,解决了高光谱遥感图像样本集不足的问题。  综上所述,本文针对高光谱遥感图像分类领域的两方面问题展开了研究,提出了一个基于谱域-空间特征的半监督高光谱遥感图像分类方法,并在Indian Pine、Pavia University、 Salinas Valley-A数据集上进行验证,实验结果验证了本文提出方法的有效性。
其他文献
在医学图像处理领域,肺部肿瘤的分割是一项具有实际应用价值的课题。基于精确的肺部肿瘤分割结果,可以进行相应的三维重建、分析解剖结构和计算肿瘤体积等相关研究,从而为医生提
随着信息技术的迅速发展和Internet的普及,Web日志资源越来越丰富。如何充分利用这些资源,从中提取出用户所感兴趣的信息数据,是当前计算机领域的一大挑战。Web日志挖掘就是利用
空值的研究是关系数据库领域的一个重要研究方向,具有重要的理论价值和应用价值。经典的二值逻辑和多值逻辑在空值的表示和处理上仍有不足,随着模糊数学理论体系的建立,人们
随着科学技术的飞速发展,基因测序的成本不断减少,目前已有成千上万物种的基因组被成功测序。由于一个生物体的生物学功能密码往往隐藏在它的基因组序列中,并且在这些密切相关的
随着web技术的发展,各类网站风起云涌,网站给人们在信息利用与资源共享方面带来了极大的方便,同时也面临着被攻击的危险。事实证明,从互联网出现的时刻开始,安全隐患就同时存在。
自从BT(BitTorrent)在网络中应用以来,其发展之迅速出乎人们的意料之外。它独特的下载方式,快速高效的下载速度确实给人们带来的巨大的方便,极大地促进了人们共享资源。但是,它也
机器人在未知环境中探索,一个基本的要求是机器人能够决定自己在环境中的位置,这可以在给定地图的前提下,辅助一些传感器完成。但是,很多时候,先验的地图并不存在,需要机器人
水电故障纷繁复杂,传统水电仿真系统中的推理机制已不能满足实际需要,使用数据挖掘进行故障分类来代替原有的推理机制是对本领域新的尝试。通过水电仿真系统的开发,人们意识到传统的故障仿真功能培训学员意义有限,而且人为的设计并用计算机程序实现水电故障很难保证其准确性,这些缺陷催生新技术的应用。应用数据挖掘技术的支持向量机方法来进行水电故障分类研究对水电仿真系统的优化以及实用性均具有重要的现实意义。本文首先将
嵌入式多媒体技术是目前国内外研究的热点,尤其是嵌入式播放器已经在许多产品中使用。伴随着计算机软硬件技术的飞速发展,对嵌入式播放器软件的要求也越来越高。现在流行的嵌
随着Internet的迅速发展,网上信息以爆炸性的速度不断丰富和扩展,搜索引擎成为获取信息的必需工具,而网络爬虫作为网页收集工具是搜索引擎的核心组成部分。随着互联网信息量的增