论文部分内容阅读
神经网络的优化算法在训练模型时所使用的数据集可能包含用户的敏感信息,容易在训练的过程中造成隐私泄露。为了在神经网络优化算法Adam上实现差分隐私保护,提出差分隐私保护下的Adam优化算法(DP-Adam)。将Adam优化算法与差分隐私理论结合,在神经网络反向传播的Adam梯度下降更新参数过程中加入满足差分隐私的拉普拉斯噪声,从而达到对神经网络优化算法进行隐私保护的目的。实验表明,对于相同的隐私预算,随着训练轮数的增加,DP-Adam训练模型的精度优于DP-SGD。在达到同样的模型精度的条件下,DP-