论文部分内容阅读
随着网络信息技术的不断发展,分布式计算架构也在经历着变革,分布式系统被广泛地应用于许多领域。但是分布式系统的开放性和匿名性使得节点可以肆意传播非法内容,滥用网络资源。分布式环境下基于信誉的信任机制是作为一种新颖的安全问题解决方案被引入的,其基本思想是客户节点在选择服务之前,根据网络收集到的信任评价信息,计算服务节点的信任度,从而选择是否与之发生交易。交易完成后,双方互相评价,为网络中其他节点以后选择交易对象时提供参考。
一个有效的信任模型必须能够真实地反映出节点的服务能力,提高系统的交易成功率。然而越来越多的恶意攻击开始针对信任模型,这就对信任模型的抗攻击性提出了更高的要求。为此,本文主要研究了几种常见的针对信任模型的恶意攻击,并通过仿真实验试图找到抗攻击的方法。所做的工作主要体现在以下几个方面:
(1)研究信任和基于信誉的信任模型的基本概念,并以信任模型中的计算模型为主要研究对象,分析了计算模型中常见的恶意攻击,包括:虚假服务攻击、恶意评价攻击、共谋攻击、摇摆攻击、漂白攻击和女巫攻击。
(2)对仿真平台TrustSimulator进行了改进,使得该平台可以模拟各种常见攻击,以提供更好的仿真环境,并改进了仿真结果分析模块。
(3)选取均值模型和PeerTrust模型为典型信任模型进行研究,在TrustSimulator上分别实现上述两种模型,并通过仿真实验对它们的抗攻击性进行分析。
(4)提出了抗攻击信任模型FETrust,使用好友和黑名单机制,区分自身经验、好友经验和陌生人的经验,相信好友提供的信息,对处于黑名单中节点给出的经验进行过滤,可以更加有效地控制反馈来源。同时在计算信任值时充分利用了各种因素,并针对常见攻击的特点提出了相应的应对方法。仿真实验证明FETrust在抗攻击性方面具有显著的优势。