论文部分内容阅读
粗糙集理论是一种新的刻画不完整性和不确定性的数学工具。知识约简是粗糙集理论研究的核心问题之一。目前,粗糙集理论正在被广泛应用于人工智能、模式识别等很多领域。本文对属性约简与决策树规则简化进行了深入研究:
针对不一致决策表,为克服区分矩阵方法时间复杂度随系统大小增加而指数增长的缺陷,以知识的包含度为基础,将一致与不一致对象分开,给出分布约简的数学判定定理,设计了一种求分布约简的启发式算法。实践表明该方法能够获取较小的约简。
为弥补现有信息论方法的局限性,定义了一种新的条件熵概念,并且给出了以不等式为条件的约简判定定理,提出了一种相对属性约简的启发式算法。实例分析的结果表明,该方法提高了运行效率,有助于搜索最小或次优知识约简。基于上面的思想又提出了基于决策熵的约简算法,实验结果表明该算法也能取得较好的效果。
分析了基于正区域方法的不足,提出了决策强度的代数定义,并证明了知识的决策强度随信息粒度变小而非单调递减的规律,设计了基于决策强度的约简算法。UCI离散数据集实验比较的结果表明,该算法计算直观有效。
针对现有值约简算法提取规则仍存在冗余与计算复杂度较大等问题,引入决策树分类规则学习方法,定义了一种能反映决策能力实质的新的条件熵,对传统启发式方法中选择属性的标准进行改进,构造决策树,设计规则约简过程。该方法的优点在于构造决策树与提取规则之前不进行属性约简,也能获取简洁有效的规则。为弥补知识粗糙熵的局限性,提出决策熵概念,以条件属性子集的决策熵来度量其对决策分类的重要性,自顶向下递归构造决策树,简化规则。通过实例分析说明了该算法的有效性。