论文部分内容阅读
如今互联网所传递的内容发生了巨大的变化,早期互联网以静态、文本的公共信息为主要内容,交互性不强,而目前的互联网则传递着大量的动态信息。同时,随着网络的普及,人们把日常生活搬入网络,网络流量的逐年增多,业务范围也在逐年扩大,互联网中的赶集、疯抢购物现象也越来越频繁。随之而来,高并发、高流量、数据量大的网络新特性使得Web已经成为Intenet应用的瓶颈,研究Web加速具有重要意义。本文重点研究Web加速关键技术,并据此设计了一套Web加速系统。本文对Web加速关键技术的研究,始终以减轻服务器负载、降低网络拥塞、减少访问延迟为主线,以Web加速技术和应用为主要内容,深入讨论了网络结构和Web服务器的现状和存在的问题,详细分析了网络物理结构的限制和Web在技术和架构上对性能带来的差异,并在宏观的网络层和微观的Web服务器层进行高性能的优化架构的研究和设计。目前,Web加速面临着各方面的问题。首先,现有网络地域广阔,结构复杂,电信和联通建立各自网络而互联质量差,同时运营商主力节点较少,带宽不足,主干道线路拥堵和故障时时发生。其次,Web服务器处理能力有限,面对大量的访问服务器资源无疑会几近枯竭,关系数据库更将成为一个性能瓶颈而首先崩溃。再次,网络攻击日益严重,从以往针对Web的攻击到如今针对DNS的攻击,能影响用户访问速度攻击方式已全而铺开。本文以真实用户访问路线为基础,对各工作环节提出一整套Web加速体系结构,主要工作和创新点如下:1.网络层DNS加速。DNS是用户访问Web请求的第一步,Web的域名解析源头就在于授权DNS服务器。针对授权DNS加速,首先提出对访问用户来源根据IP库进行智能区域解析,选择就近CDN节点,其次利用CNAME解析方式对就近节点进行VIP负载均衡,控制节点LVS不会出现单点性能瓶颈,其次对DNS服务器自身进行分组负载,提高DNS解析速度,同时加强针对DNS攻击的防护能力。2.网络层CDN加速也是采用比较广泛的加速手段。本文提出以高性能的Nginx为代理服务器,Varnish集群作为缓存服务器,除了动静分离等传统CDN技术外,给出NAT回源模型。模型以部署局部内网或者双线节点为代价换取各运营商线路的快速转换,从而实现无论多少Web主站,只需单线机房即可实现多线的访问质量。同时进行针对CDN访问质量的实时检测,调整用户访问最优访问CDN节点,实现链路拥堵和故障时的智能链接切换,保证Web加速的实时性。3.Web主站性能直接影响宏观网络与微观网络连通的速度,也是Web访问最容易产生瓶颈的地方。本文提出以负载均衡为基础,缓存为重点,高性能Web服务器Nginx作为支撑高并发的主力,采用分布式主从数据库来解决最为脆弱的数据库环节,使得整体服务器数量有限的状况下也能达到很好的性能。最后对给出架构进行试验和结果分析。试验证明,本文给出无论从网站并发数量、响应速度、服务器资源耗用上都好于传统模式。当前Web加速手段还面临着各种问题,尤其中国网络的特殊性,无法从物理上彻底改变慢的特性,同时网络暴力攻击日益常态化也给网络加速增加了难度,希望通过架构和性能的不断优化能够跟上网络进步的步伐。