论文部分内容阅读
反馈神经网络是神经网络中最重要的类型之一,这种网络的突出特点就是它具有联想记忆的功能。反馈神经网络最重要的范例就是Hopfield网络,它已经被人们广泛地研究过,然而Hopfield网络和它的许多变种都存在着一些严重的缺陷,比如伪吸引子问题和低存储率问题。这些缺陷严重地限制了它们的实际应用能力。另外,Hopfield网络是典型的非线性动力系统,在近十几年来非线性动力学的发展中,人们认识到到了非线性动力系统不仅可能存在不动点解,而且也可能存在大量的极限环或周期运动解。目前,绝大部分反馈神经网络都是利用系统的不动点作为信息存储的载体,但这种方式没有利用非线性动力系统大量存在的周期解,从某种意义上说是一种巨大的浪费。最近,赵鸿教授提出了一套关于联想记忆反馈神经网络的整体学习规则(蒙特卡罗优化变异规则)[Phys.Rev.E.70,066137(2004)]。这种学习规则的基本思想就是:通过不断地优化变异随机选择的连接权矩阵元,从而使网络在给定的训练目标下达到整体最优。采用这种学习规则训练的反馈网络有许多非常有趣的动力学性质。特别是,用这种学习规则训练的反馈网络存在三个动力学性质非常不同的相区:混沌区、纯记忆区和混合区。在纯记忆区,伪吸引子被完全消除,因此它非常适合于联想记忆的应用。本论文利用这套整体学习规则重点研究两个问题。第一个问题是推广蒙特卡罗优化变异规则的方法,使它能直接应用于延迟反馈神经网络的训练,并详细研究了用这种方法训练出的网络的动力学性能,如伪吸引子和存储率等。第二个问题是推广蒙特卡罗优化变异规则的方法,使它能直接应用于以极限环作为信息存储载体的网络,并研究极限环吸引子网络(包括多层反馈网络和延迟反馈网络)的动力学行为、网络性能,以及与对应的不动点吸引子网络的区别。在本论文的第一部分,我们把蒙特卡罗优化变异规则推广到存储记忆模式为不动点吸引子和极限环吸引子的延迟反馈网络上,然后对这种延迟反馈网络的存储率和动力学性质进行研究。我们的研究表明,采用蒙特卡罗优化变异规则训练的延迟反馈网络,和采用关联学习规则训练的延迟反馈网络一样,最大存储率和延迟的长度成线性增长关系,但前者的数值远远高于后者;另外,蒙特卡罗优化变异规则训练的延迟反馈网络的推广能力也比关联学习规则训练的延迟反馈网络要好;还有一个有趣的发现就是,在蒙特卡罗优化变异规则训练的延迟反馈网络中,如果记忆极限环的长度足够大,伪吸引子会完全消失,网络不存在混合区。作为应用例子,我们演示了用延迟反馈网络存储具有交叉点的多个极限环,从一小串数字中联想起整个数字序列。在本论文的第二部分,我们采用多层的蒙特卡罗优化变异规则构造了一个两层的反馈神经网络,并对它的动力学性质进行了研究。该网络可以把记忆模式存储成不动点吸引子或者极限环吸引子,我们对极限环吸引子网络和不动点吸引子网络的动力学性质进行了比较,并发现前者的存储质量要比后者好,特别是,当记忆模式存储成长的极限环时,伪吸引子完全消失。本部分我们还将演示极限环吸引子网络的一个可行的应用,给定一个图形片段,联想出整个图形。