论文部分内容阅读
深度学习技术近年来受到学术界和工业界的广泛关注,本文主要聚焦于深度神经网络中的卷积神经网络优化和图卷积网络优化两方面内容,这两个方面也代表了欧式距离和非欧氏距离下深度神经网络不同的处理方法。卷积神经网络自最初5层网络(LeNet-5)已经发展到现在上百层深度且“形态各异”的网络结构,但这些网络大多数是解决图像分类与识别等问题。这些领域延伸出上百种不同的网络结构,与之对应解决几十种子领域问题。学术界和工业界投入了大量的研究成本用以解决计算视觉中精度和速度等问题,然而,每逢新的问题就需要新网络。为此,本文首先聚焦研究神经网络结构搜索算法,着力研究通用快速的网络结构。神经网络结构搜索即通过网络生成另外一种网络,过程中无需人工干预。这种端到端的网络优化算法,将会使人们从手工设计的复杂任务中“解脱”出来,为实际应用带来更好更快的神经网络。本文基于Cell模块性能的探究设计,为图像中的卷积神经网络结构搜索算法提供了一种具有鲁棒性的Cell模块,从而提升网络在主流数据集上的性能。与此同时,考虑到部分网络在训练之初容易“掉进”表现不好的区间,本文采用了传输部分通道的连续可微算法,这样既能避免早期欠拟合,也加快了网络的搜索速度。其后,本文的研究关注到了图卷积网络,该网络的数据结构在经过傅里叶逆变换后可以进行类似图像中的卷积运算。然而,本文发现该运算在网络输入阶段的特征往往是人工定义的关系矩阵而非基于节点真正关系的邻接矩阵。为此,本文提出了一种可以自主学习的矩阵优化算法,使得网络能定义自身的特征矩阵。这样做的另一个优势在于如果输入数据中存在大量的节点导致人为定义困难,本文提出的方法就可以在初始化后进行自行学习从而完成一个邻接矩阵定义,实现端到端的优化。实验表明,本文提出的邻接矩阵优化算法在Cora与Pubmed数据集上取得了最佳的效果,实现了84.6%和81.60%的分类准确率。