论文部分内容阅读
最小主元的提取在波束形成、频率估计、曲线/曲面拟合等应用中扮演着重要的角色。作为一个重要的统计分析工具,最小主元分析(MCA)已经被广泛的应用到了信号处理和数据分析领域。神经网络能用于从高维输入信号中自适应的提取最小主元。与传统的矩阵代数方法相比,神经网络方法具有更低的计算复杂度。MCA神经网络的收敛性对于其实际应用是至关重要的。近年来MCA神经网络的动力学问题引起了学术界的广泛关注。通过使用传统的确定连续时间(DCT)方法,关于MCA神经网络的许多收敛性结论已经被得出。但是,DCT方法的使用需要基于许多严格的限制条件,而这些条件在实际应用中通常是无法被满足的。最近,确定离散时间(DDT)方法被用于分析许多前馈神经网络的动力学行为。DDT方法的使用不需要DCT方法的严格条件,是一种更为合理的分析方法。本论文主要使用确定离散时间(DDT)方法对MCA神经网络的收敛性进行研究。除此之外,对MCA学习算法收敛速度的分析、对现有MCA学习算法的改进措施也被详细的讨论。具体地说,本论文涉及到如下内容:1.具有固定学习速度的MCA学习算法的收敛性分析根据随机逼近理论,当确定连续时间(DCT)方法被用于分析MCA学习算法的收敛性时,学习速度被要求趋于零。但是,在许多实际应用中,学习速度通常取为一个常数。在另一方面,确定离散时间(DDT)方法却允许学习速度为一常数。因此,DDT方法是一种更为合理的收敛性分析方法。在本论文中,通过使用DDT方法,分析了一些重要的MCA学习算法在具有固定学习速度情况下的动力学行为,获得了保证算法收敛的充分条件。2.对MCA学习算法收敛速度的分析MCA学习算法的快速收敛对于实际应用是十分重要的。在本论文中,介绍了影响MCA学习算法收敛速度的因素:比较了不同的MCA学习算法的收敛速度;提供了一些关于通过选择初始权值向量以加速算法收敛的建议。3.对MCA学习算法的改进在一些MCA学习算法中存在着范数发散问题。在本论文中,通过引入可变学习速度和范数归一化步骤,提出了对一些现有MCA学习算法的改进措施,以确保算法中权值向量的范数可以稳定的收敛到一个常数。4.一般的MCA学习算法在本论文中,提出和分析了一个一般的MCA学习算法。许多其他MCA学习算法都可以看作是该算法的特例。5.串行MCA学习算法在一些实际应用中,提取多个最小主元是必要的。在本论文中,一个串行MCA学习算法被提出用于从输入信号中提取多个最小主元,同时使用DDT方法证明了在学习速度满足某些条件的情况下,该算法是全局收敛的。