网络通道加速方法和系统技术方案

技术编号:12127868 阅读:91 留言:0更新日期:2015-09-25 16:45
本发明专利技术设计一种网络通道加速方法和系统,其中方法包括步骤:创建缓存服务器,将网站服务器设定的网站服务内容缓存至所述缓存服务器;接收用户访问网站服务内容的用户请求,并将所述用户请求转发至缓存服务器;利用缓存服务器响应用户请求,将命中网站服务内容的第一用户请求响应的网站内容反馈至对应访问的用户,并将没有命中网站服务内容的第二用户请求转发至网站服务器;利用网站服务器响应所述第二用户请求,将第二用户请求响应的网站内容反馈至对应访问的用户。本发明专利技术的技术,降低了网站服务器的负载,特别是当出现用多户并发访问时,降低了网站服务器崩溃风险。

【技术实现步骤摘要】

本专利技术涉及计算机
,特别是涉及一种网络通道加速方法和系统
技术介绍
互联网网站通常拥有海量数据及千万级的注册用户,一般都存在多用户同时访问 的高并发的情况,这时,I/O的瓶颈问题会迅速显现。例如,电子商务网站的注册用户并发 访问过程中,当用户请求数量超过数据库最大的I/O数量或者Connection链接限制时,用 户请求将会被阻断,客户体验度会降低,一定程度上降低了网站的客户流量。 针对于用户并发访问的相应,现有的方案中,多是采用分布式部署,将网站服务器 分布在地理分散的各个节点上,分布在各个节点上的服务器在逻辑上是相关的,采用负载 均衡器进行流量分流,从而解决站点入口的压力,降低单点风险,分解单点访问压力。这种 技术一般采用商业的负载均衡器,算法往往是固化的,难以有效适配企业自身定制的需求 和实际的站点用户访问流量情况,因此,也就难以从用户访问的前端链路层有效的降低丢 包,实现高效传输数据,降低用户流量损耗的目的。而且这中技术方案中,用户对网站的访 问请求都需要经过负载均衡器分发至网站服务器上,网站服务器需要响应所有用户的访问 请求,进一步加重了网站服务器的负载,影响了网络通道的访问速度。
技术实现思路
基于此,有必要针对上述问题,提供一种降低网站服务器负载、加快响应用户请求 的网络通道加速方法和系统。 一种网络通道加速方法,包括如下步骤: 创建缓存服务器,将网站服务器设定的网站服务内容缓存至所述缓存服务器; 接收用户访问网站服务内容的用户请求,并将所述用户请求转发至缓存服务器; 利用缓存服务器响应用户请求,将命中网站服务内容的第一用户请求响应的网站 内容反馈至对应访问的用户,并将没有命中网站服务内容的第二用户请求转发至网站服务 器; 利用网站服务器响应所述第二用户请求,将第二用户请求响应的网站内容反馈至 对应访问的用户。 一种网络通道加速系统,包括: 缓存模块,用于创建缓存服务器,将网站服务器设定的网站服务内容缓存至所述 缓存服务器; 转发模块,用于接收用户访问网站服务内容的用户请求,并将所述用户请求转发 至缓存服务器; 第一响应模块,用于利用缓存服务器响应用户请求,将命中网站服务内容的第一 用户请求响应的网站内容反馈至对应访问的用户,并将没有命中网站服务内容的第二用户 请求转发至网站服务器; 第二响应模块,用于利用网站服务器响应所述第二用户请求,将第二用户请求响 应的网站内容反馈至对应访问的用户。 上述网络通道加速方法和系统,充分考虑了用户体验及网站服务器的负载能力, 通过创建缓存服务器,将网站服务器设定的网站服务内容缓存至所述缓存服务器,这样,用 户访问的部分数据可以通过缓存服务器直接响应,不需要再从互联网网站服务器传输,可 以节约网络出口流量,然后将缓存服务器中没有命中的用户请求再发送给网站服务器进行 响应,从而降低了网站服务器的负载,特别是当出现用多户并发访问时,降低了网站服务器 崩溃风险。【附图说明】 图1为本专利技术的网络通道加速方法流程图; 图2为基于有界阻塞数组队列实现的线程池调度模型示意图; 图3为一个实例的基于本专利技术的网络通道加速方法的系统架构设计图; 图4为本专利技术的网络通道加速系统结构示意图。【具体实施方式】 下面结合附图对本专利技术的网络加速方法和系统的【具体实施方式】作详细描述。 参考图1所示,图1为本专利技术的网络通道加速方法流程图,包括如下步骤: 步骤S10,创建缓存服务器,将网站服务器设定的网站服务内容缓存至所述缓存服 务器。 在本步骤中,可以通过缓存服务器中存储的副本,提供Http请求访问目标功能。 由于缓存的数据不需要从互联网网站服务器传输,因此可以节约网络出口流量。 在一个实施例中,可以将缓存服务器部署在靠近用户网络节点,这样在用户请求 网站内容时,部分请求数据可以不通过Internet,只访问离用户较近的本地缓存服务器即 可获取所需要的信息,从而可以大量减少重复请求在网络上的传输,从而降低网络流量,节 省资费;还可以减少网络中的延时和访问瓶颈造成的传输速率下降,加快请求,提高用户体 验。 步骤S20,接收用户访问网站服务内容的用户请求,并将所述用户请求转发至缓存 服务器。 在本步骤中,可以利用⑶N(ContentDistributionNet,内容分发网络)技术,根 据网络流量和各节点的连接、负载状况以及到用户的距离和响应时间等综合信息将用户访 问网站服务内容的用户请求重新导向至离用户最近的服务节点上。可以使用户就近取得所 需内容,从而可以解决Internet网络拥挤的状况,提高用户访问网站的响应速度。 在一个实施例中,将所述用户请求转发至缓存服务器可以包括如下: S201,获取用户访问网站服务内容的用户请求;具体的,首先统一接收用户的访问 请求。 S202,采用内容分发网络技术将所述用户请求转发至缓存服务器;优选的,可以将 CDN内容分发网络就近部署互联网网站缓存服务,最大限度利用Web缓存,提高移动网络流 量分发。 步骤S30,利用缓存服务器响应用户请求,将命中网站服务内容的第一用户请求响 应的网站内容反馈至对应访问的用户,并将没有命中网站服务内容的第二用户请求转发至 网站服务器。 在本步骤中,利用缓存服务器响应用户请求,将命中网站服务内容的第一用户请 求响应的网站内容反馈至对应访问的用户,并将没有命中网站服务内容的第二用户请求转 发至网站服务器 在一个实施例中,步骤S30中将所述将没有命中网站服务内容的第二用户请求转 发至网站服务器的过程,可以包括如下步骤:S301,获取没有命中网站服务内容的第二用户请求;S302,利用负载均衡器将所述第二用户请求分发至网站服务器; 上述实施例,在将第二用户请求分发至网站服务器的过程中,可以利用负载均衡 器探测网站服务器集群中各节点已有的负载,并根据已有的负载情况,将第二用户请求分 发至网站服务器集群中的各个节点,使网站服务器集群中各节点尽可能保持负载均衡。 步骤S40,利用网站服务器响应所述第二用户请求,将第二用户请求响应的网站内 容反馈至对应访问的用户。 在本步骤中,对于前述步骤中没有命中网站服务内容的第二用户请求,通过转发 至网站服务器,利用网站服务器响应第二用户请求,以此实现了对用户访问请求的响应。 在一个实施例中,对于步骤S40中利用网站服务器响应所述第二用户请求的过 程,可以包括如下步骤: S401,创建线程队列及线程池,其中,所述线程池存放所述网站服务器响应的第二 用户请求;S402,获取第二用户请求,并将所述第二用户请求添加至线程队列; S403,通过先进先出的方式将所述第二用户请求移出所述线程队列;S404,将按顺序移出线程队列的第二用户请求并送入所述线程池。 上述实施例,线程队列及线程池创建,网站服务器能够依据设定顺序响应第二用 户请求,提高响应效率。 对于上述线程队列及线程池的应用,可以采用基于有界阻塞数组队列实现的线程 池调度模型,参考图2所示,图2为基于有界阻塞数组队列实现的线程池调度模型示意图。 利用线程池管理类401创建有界阻塞队列402和线程池403; 将用户请求404添加到有界阻塞队列前判断阻塞队列402是否满: 若不满,则将用户请求添加到有界阻塞队列402;本文档来自技高网...

【技术保护点】
一种网络通道加速方法,其特征在于,包括如下步骤:创建缓存服务器,将网站服务器设定的网站服务内容缓存至所述缓存服务器;接收用户访问网站服务内容的用户请求,并将所述用户请求转发至缓存服务器;利用缓存服务器响应用户请求,将命中网站服务内容的第一用户请求响应的网站内容反馈至对应访问的用户,并将没有命中网站服务内容的第二用户请求转发至网站服务器;利用网站服务器响应所述第二用户请求,将第二用户请求响应的网站内容反馈至对应访问的用户。

【技术特征摘要】

【专利技术属性】
技术研发人员:周冠宇
申请(专利权)人:广州杰赛科技股份有限公司
类型:发明
国别省市:广东;44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1