论文部分内容阅读
在当下信息科学时代的发展下,人工智能算法与实践联系越来越紧密,人脸识别作为一类关键的物体信息辨认手段,在信息安全方向有着许多实际应用场景,如视频监控、访问控制、身份确认等,是计算机视觉范畴非常受欢迎的课题之一。不过,人脸识别现今仍然面对着两个难题:第一个难题是在处理复杂、类似的人脸图片时,随着数据量的增大,识别准确率往往会出现明显下降,导致无法达到许多实际应用场景需求。第二个难题是基于海量数据训练神经网络模型时,训练花费时间过长,短时间测试多种不同模型的效率较低,单一节点和模型无法满足同一时刻识别大量输入图片的需求。对于如何减少神经网络模型并行训练及使用训练好的模型并行识别的时间,综合提高识别精度,目前需要提出创新的算法来实现这一目标并进行评估与测试。首先,为了处理上述存在的问题,本文从典型的工程应用场景出发,创新性地提出了迭代复合残差卷积神经网络模型结构,该多层网络模型结构利用卷积神经网络原理,构建了一种全新的复合模型架构,结合过滤连接,残差阶跃、卷积替换、批标准化、池化降维、梯度下降等多种技术算法,保证了对大量复杂图片测试集有极高的识别精度。其次,本文基于谷歌深度学习开源框架TensorFlow及并行化底层实现原理,结合损失函数牛顿二阶迭代更新算法理论,在多台高性能GPU图形处理服务器的集群环境下,利用参数服务器保存整个模型需要更新的全部参数,其余各工作节点循环异步分析批量数据并提交梯度,实现分布式并行训练算法,算法的创新之处在于提出了将牛顿法损失函数优化理论应用在GPU集群异步参数更新过程中,实现了降低数据总线传输及网络带宽占用的时间损耗,大幅加速并行训练的目的。最后,本文在模型并行训练基础上,研究分析Spark分布式并行处理数据底层实现机制,提出了一种使用其广播变量、弹性数据集和MapReduce等技术方法,结合深度学习抽象特征提取算法的创新型并行识别方法,实现了在多节点集群环境下短时间内对海量人脸输入图片的高通量分析和处理。通过实验对本课题提出的创新理论和方法进行考查,验证系统和算法的性能,将上述方法的实验结果与原始方法执行比较,证明了本论文算法能够有效解决上述问题,提升人脸识别的准确率,大幅减少模型训练和海量数据集识别的时间。