基于熵聚类的RBF神经网络训练算法研究

来源 :重庆大学 | 被引量 : 0次 | 上传用户:glx19891006
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
信息熵是信息量的度量,利用数据样本的信息熵可揭示系统的某些内在特性。对于数据聚类,信息熵具有其应用价值。以样本聚类为基础的径向基函数(RBF)神经网络是一种结构简单、训练简洁、应用广泛的人工神经网络。其网络性能好坏的关键在于基函数中心的选择。中心的数量即隐层节点数选的太多,容易导致过拟合,使得推广能力下降;中心数选得太少,所学习的网络样本中包含的信息得不到充分的学习,也会使得推广能力下降。近年来,已经发展了很多种基于各种聚类算法的中心选择方法。这些方法对于一些输入样本数及聚类模式数给定的模式识别问题比较适用,但这些算法都是以迭代方式达到目标函数的收敛,容易陷入极小点,因此算法对初值非常的敏感[1],而且要求预先给定全部输入样本及其聚类中心的数目,这对某些问题是无法实现的。本文将信息论中的熵应用于RBF网络的训练算法中,研究结果表明,利用熵聚类方法,是有效解决上述问题的途径之一。本文工作的主要内容阐述如下:①对径向基(RBF)神经网络及其主要训练算法、信息熵等相关基本理论进行了介绍。②针对RBF训练算法中很难确定径向基函数中心的问题,采用信息论中的熵的思想,给出了一种熵聚类算法,用于对RBF中心位置的初始化。借助于Matlab平台,利用该方法对函数进行逼近。最后实验表明,改进的方法比经典的K-均值聚类法所得到的逼近效果要好,而且训练速度更快。③泛函网络是神经网络的一般化推广。本文将熵聚类算法应用到泛函网络中,提出了一种可用于函数逼近的可分离泛函网络的方法,并对此方法进行了计算机仿真。仿真结果表明,改进的方法能很好的逼近给定函数,具有良好的逼近性能。本文采用的熵聚类方法,使RBF神经网络在逼近问题上不仅具有逼近效果好、训练速度快的优点,还具有自动确定RBFNN的隐节点数和相应的隐节点参数的能力。
其他文献
在现今,存储设备作为大量信息的载体,一旦发生故障就可能会导致文件的损坏或丢失,从而造成难以估量的损失。如果文件丢失发生,就需要通过技术手段,对保存在存储设备上丢失的数据进
在测量领域中,传统的测量方法存在着需要与被测物体接触、复杂曲面难以精确测量、操作受人为因素影响较大和使用经验公式等问题,这导致测量工作不能满足高精度要求。基于光学
因特网技术的发展日新月异,向全球用户展现出了一系列具有创造性的分布式应用成果。对等网(Peer-to-Peer,P2P)文件共享系统,作为通过协作定位和分布共享文件的工具,已成为占
数据量的增长促使计算机存储技术不断地向纵深方向发展,与传统的分布式系统相比,P2P技术具有无可比拟的优势,广阔的应用前景,成为二十一世纪计算机技术的最令人关注的技术之
在无线传感器网络中,由于传感器节点能量的有限及它们之间不稳定的无线电通信,可能造成网络的分割。针对无线传感器网络分区之间的通信,信息摆渡(Message Ferrying)是一种十