论文部分内容阅读
支持向量机(SVM)是九十年代中期发展起来的新的机器学习技术,与传统的神经网络(NN)技术不同,SVM是以统计学习理论(SLT)为基础,NN是以传统统计学理论为基础.传统统计学的前提条件是要有足够多的样本,而统计学习理论是着重研究小样本条件下的统计规律和学习方法的,它为机器学习问题建立了一个很好的理论框架.实践表明,建立在(SLT)之上支持向量机不仅结构简单,而且技术性能尤其是推广能力明显提高,能够解决好大量现实中的小样本学习问题,它是一个全新的神经网络技术.目前,SVM已成为国际上机器学习领域新的研究热点.该文首次深入系统地对支持向量机(SVM)进行了研究讨论.论文的主要贡献可归纳如下:首先,第一章简要介绍了由于传统神经网络的发展和它在机器学习上的缺陷,导致支持向量机的诞生;并提出了研究和应用支持向量机的必要性和重要性以及现有支持向量机的研究成果和存在的不足.第二章探讨了支持向量机理论基础——学习问题,尤其是对Vapnik等人的统计学习理论(SLT)结合学习问题作了系统的阐述.其次,第三章从模式识别中引出最优分类超平面,然后按训练集线性可分和线性不可分讨论,运用最优化理论中的拉格朗日乘子法(LMT)推导出相对应地最优超平面和判别函数(决策函数);最后通过统计学习理论和泛函分析理论推导出支持向量机.再次,为了进一步提高支持向量机的通用性以及推广能力、应用能力、识别速度等性能,在第四、第五两章运用模糊集理论(FST)和粗糙集理论(RST)对支持向量机进行研究,采用优势互补原则,先是把模糊集与支持向量机有机结合,构造出基于模糊集的支持向量机(FSSVM),然后把粗糙集理论与支持向量机相互结合,进而把RST与FSSVM相互结合,构造出基于RST的支持向量机.很好地推广了SVM的技术性能.最后,在第六章中,把第三章SVM核函数的思想和第四章简化FSSVM的思想运用回归分析(函数拟合)、主成分分析(PCA)中,提高了二者的分析、处理数据的能力,简化了处理过程.