论文部分内容阅读
多层前向神经网络是最常用、最流行的神经网络模型,其逼近能力和训练算法是其应用的关键.误差反传算法(BP)以诸多的优点而成为多层前向神经网络训练的首选算法,但却存在收敛速度慢的缺点.研究发现,'假饱和'是导致BP算法收敛缓慢的主要原因之一,也是减小点焊质量监测模型误差的主要障碍.为了减少BP算法学习过程中出现'假饱和'的可能性、加快学习速度,提出了选取神经元作用函数类型的原则.