论文部分内容阅读
分类问题一直是机器学习领域的重要问题之一.对于分类模型,研究者除了致力于分类器的构造和优化外,也专注于对影响分类效果的各种因素的探究.而数据集的重叠问题和不平衡问题是影响分类效果的两个重要因素.
数据集不平衡问题一度被视为影响分类效果的主因,学术界于2000年和2003年分别举行会议进行了讨论,学术成果相当丰富.但随着研究的深入,陆续有学者提出数据集的不平衡并非是分类效果不佳的关键,而不同类别的样本在样本空间上的重叠才是导致分类精度不高的主要原因.更有学者进一步指出:不论数据集是否平衡,数据集的重叠都会对分类精度产生很大影响.目前数据集重叠问题已逐渐成为新的热点,受到越来越多研究者的关注.
现有的处理数据集重叠的方法主要是选择性删除数据和特征提取.选择性删除数据的目的是找出数据集重叠的区域,并将该区域的样本删除,常用方法有两个:DataClean和Edit.而利用特征提取算法处理重叠问题目前还只停留在理论阶段.
本文提出了两个处理数据集重叠问题的方法——基于离群点检测的处理方法和基于半监督学习法的处理方法.为了探讨各种方法对数据集重叠问题的处理效果,本文选用基于核密度估计的贝叶斯分类器,并且使用F1指标作为分类器的评价标准.本文将这两种方法应用于UCI数据库中的十个数据集,并且与传统处理方法作了综合比较:通过适用性、功效性、稳定性和时效性四个方面的分析,结果表明:相比于传统方法,基于离群点检测的处理方法适用性较广且大多数情况下分类效果有较好的改进;基于半监督学习法的处理方法则针对一些特殊的情况具有显著的效果.