浅说网络概率的负载均衡算法论文

| 收藏本文 下载本文 作者:快乐小李

这里小编给大家分享一些浅说网络概率的负载均衡算法论文(共含12篇),方便大家学习。同时,但愿您也能像本文投稿人“快乐小李”一样,积极向本站投稿分享好文章。

浅说网络概率的负载均衡算法论文

篇1:浅说网络概率的负载均衡算法论文

浅说网络概率的负载均衡算法论文

1.基于概率的路由准入

目前,门限准则模糊了所有负载描述值低于门限的节点之间的差别,也模糊了所有负载描述值高于门限的节点之间的差别,这势必对负载均衡的效果产生不利的影响。负载均衡中的路由准入算法大部分基于门限准则来实现。门限准则通过设置一个门限值来判断路由准入,低于(或高于)门限值则准入(或禁止)路由。但是可相比基于门限的路由准入机制,基于概率的算法并不直接决定是否准入路由,而是综合各种信息得到一个准入的概率,节点以这个概率进行路由准入。节点B、C和D都收到了来自源节点A的路由请求,在t1时刻节点B、C和D的负载描述值分别为8,10和12。如果门限值为7,那么三个节点的负载都高于门限值,则此门限值的设定就无法区别出节点B、C和D之间的负载差异;同样,在t2时刻B、C、D3个节点的负载描述值分别为4、6、8时,如果门限值为10,那么此门限值也无法区别出3个节点之间的差异,而实际上3个节点的负载有较大的差异。概率算法针对不同的负载描述值得到不同的路由准入概率。例如对于负载描述值8、10和12,概率算法分别给予80%、60%和30%的准入概率,那么B、C和D三个节点路由准入的结果必然不同,节点D转发RREQ将多于其它两个节点。基于概率的算法能够准确区别节点之间的负载差异,对不同负载予不同的策略。对于一个既定的负载量,要求得到一个对应的准入概率。如果把给定的负载量L作为自变量,而对应的准入概率P作为函数值,那么就可以确定负载量和准入概率之间的函数对应关系:PF(L)其中P是准入概率,L是节点的负载量,F是概率函数。给定一个负载L就可以通过上式算出路由准入的概率P。概率函数F可以用多条曲线来拟合,理论上讲,只要是单调下降的函数曲线都合适,使大的负载描述值对应小的准入概率(负载描述值越大,负载越重),但是不同曲线对应不同的协议性能。

2.基于历史信息的负载映射

在一定的网络区域内,以节点随机移动为例,理论上经过足够长的时间,节点会遍历网络,经历网络的各种负载状态,我们称之为节点的网络各态历经性。也就是在经过足够的时间后,节点能够掌握足够丰富的网络负载信息,而这些信息与当前时刻其他节点的负载高度相关。节点之间没有任何的负载信息交互。因此节点对网络状态感知的准确性就成为负载均衡的关键之一。基于历史信息的负载映射利用节点的历史负载信息来映射网络的负载状态,为节点的路由准入提供有效的参考。研究发现节点负载强度与节点在网络中的位置有很大的关系,当节点处在网络的中心区域时,由于经过的路由数比较多,所以节点负载一般较高;相反,当节点处在网络边缘时,负载较低。又由于节点的`移动,节点在网络中的位置不断发生变化,从而节点的负载状态也在不断改变。所以,节点在历经各种网络负载状态时,记录下相应时刻的负载描述值,作为路由准入时的横向比较参考,使路由准入更准确。四个相隔不远时刻的网络拓扑,图中着色的节点为同一个节点A。从图中可以看到,从t1时刻到t4时刻这段时间内,节点A由网络的中心运动到了网络的边缘(其它节点也会移动,只是我们并不关心),而节点移动之后的位置被其它节点取代。2(b)中的t2时刻,节点B运动到了节点A在t1时刻的位置,其它几个图同理。节点在网络中位置的变化导致节点的负载状态改变,在t1、t2、t3、t4四个时刻,节点A的负载描述值分别为9、7、5和3,可见节点的负载在逐渐降低。而在这个过程中,节点不断记录负载信息,包括变化过程中负载的最大值、最小值以及整个过程中的负载平均值等。节点A记录的负载最大值是t1时刻,其负载描述值为9,负载的最小值是在t4时刻,其负载描述值为3,整个过程负载的平均值为(9+7+5+3)/4=6。节点利用这些历史负载信息来映射网络的负载状态。比如节点记录的历史最大负载描述值为9,那么很可能此时网络中的其它某个节点的负载值为9。通过当前的负载值与历史负载值比较,节点很容易判断出自己的负载轻重,从而决定是否准入路由,达到负载均衡的目的。

3.H&P算法

能够描述网络负载的表征量有很多,主要的有时延、信道占用时间、路由数和缓冲区队列长度等。时延表征量是选择一条时延最短的路径;信道占用时间是以节点感知到的信道被占用的时间作为负载的度量;路由数是以经过节点的路由数目作为负载的度量;缓冲区队列长度是以节点接口队列缓冲区长度作为负载度量。不同的表征量各有特点,操作也不相同。时延和路由数表征量需要在节点之间交换表征量信息,增加了额外开销,且对负载的描述不全面;信道占用时间是一个有效的负载度量,但是需要MAC协议支持,即需要跨层设计,这增加了协议的复杂性,也破坏了负载均衡算法与协议的松散耦合;缓冲区队列长度对负载的描述简单有效,而且具有独立分布式运算、易于操作等特点。所以在H&P_DSR协议中选择缓冲区队列长度作为负载表征量。规则二:负载信息的学习与搜集。H&P算法中对网络负载状态的判读依赖节点运行时搜集的信息。节点搜集到的负载信息越多,对网络负载的分布情况判断越准确,负载均衡的效果就越好。由于开始时节点没有搜集到足够的负载信息,所以前几个周期并不进行路由准入的判断,而是正常路由,只对网络的负载情况进行采样和记录,其中包括节点运行过程中负载表增量的最大值(记为MaxL)、最小值(记为MinL)以及平均值记为AveL)。可以灵活的设置路由准入介入的时间,理论上此时间越长节点搜集到的信息越丰富,路由准入判断越准确。实际中可根据具体的应用来设计,其与节点的移动速度、通信距离等有关。在当前仿真场景下,在*2000m2范围内的区域内,节点的平均速度为20m/s,通信距离为400m,理论上节点从网络边缘进入到中心所用的时间大约30s。

可据此来设计路由准入介入的时间设置为30s,其他应用场景亦可据此计算。规则三:概率函数的设计。选用最常用和直观的直线来拟合概率函数。设直线函数为:PF(L)*其中和是未知的常数。那么,根据规则二中节点记录的历史负载信息,应该是大的负载对应小的准入概率,而小的负载对应大的准入概率。最小的负载为MinL,对应最大的准入概率为MaxP,则得到一个坐标点A(MinL,MaxP),同理,最大的负载为MaxL,最小的准入概率为MinP,得到另一个坐标点B(MaxL,MinP)。把已知的坐标点A和B代入直线函数中,得到方程组:MaxMinMinMaxPLPL解此方程组可得:MinMaxMinMinMaxMinMaxMinMinMaxLLLPPPLLPP*(4)代入直线函数中,则可得到负载量和准入概率的映射函数:MinMaxMinMinMaxMinMaxMinMinMaxLLLPPLPLLPPPF(L)当节点收到路由申请的时候,可通过上式代入负载描述值而得到路由准入的概率,进而决定是否接受此路由。公式中,MaxP和MinP是可调参数,其设置的原则是首先应保证路由的正常建立,在此基础上优化路由选择,降低冗余。要始终使轻载节点有较高的准入概率,而重载节点准入概率较小。MaxP限定了节点所能获得的最大准入概率,不能太小,否则即使轻载节点也会拒绝路由申请而使路由建立失败,导致源节点发送新的路由请求,反而增加了网络开销。MinP决定了节点的最低准入概率,节点至少以此概率准入路由申请。当网络密度较小时,由于转发路由申请的节点较少,为保证路由的建立,应提高的值,保证一定数量的路由申请成功。当网络密度较大时,节点的一跳邻居较多,为有效区别开不同负载节点之间的差异,使不同负载对应不同的准入概率,应该用较小的。这样各概率能够区别地分布在概率区间内,概率算法能过滤掉重载路由而筛选出轻载路由。所以,MaxP应该设置为一个较大的数值,而应该根据网络密度进行调整,网络密度较大的环境中设置较小的值,反之应设置较大。在当前的网络仿真场景中,可近似得节点的平均邻居数为4,节点的平均准入概率如果为50%,则可保证至少有两个节点准入路由,保证了路由的建立,同时有一条备份路径,冗余控制在可接受的范围内。据此,协议中设置90%MaxP,20%MinP。节点根据当前的负载描述值,通过式可以得到路由准入的概率。

篇2:Windows 网络负载均衡的实现

二、网络负载平衡的实现

这两台计算机中,一台计算机名称为w2003-1,IP地址为202.206.197.190,另一台名为w2003-2,IP地址为202.206.197.191.

规划网络负载平衡群集使用的IP地址为202.206.197.195,规划网络负载平衡群集完整的计算机名称为 cluster.heinfo.edu.cn.你需要在heinfo.edu.cn域中注册此主机名称并将地址设置为202.206.197.195.如果你没有DNS,可以在需要访问网络负载平衡的客户机(包括网络负载平衡主机)上编辑%systemroot%“system32”drivers“ etc目录下的hosts文件,添加一条信息“202.206.197.195 cluster.heinfo.edu.cn”,即可解决DNS域名解析的问题,

当正式应用时,客户机只需要使用cluster.heinfo.edu.cn或IP地址202.206.197.195来访问服务器,网络服务平衡会根据每台服务器的负载情况自动选择202.206.197.190或者202.206.197.191对外提供服务。

网络负载平衡的实现过程如下:

在实现网络负载平衡的每一台计算机上,只能安装TCP/IP协议,不要安装任何其他的协议(如IPX协议或者NetBEUI协议),在网络属性中,“网络负载平衡”也不能被选择,这可以从“网络连接属性”中查看。

①先进入第一台计算机,以管理员身份登录,从“管理工具”中运行“网络负载平衡管理器”,用鼠标右键单击“网络负载平衡群集”,从出现的菜单中选择“新建群集”,进入“群集参数”界面。

在“IP地址”后面输入规划的群集参数地址202.206.197.195,在子网掩码处使用默认值,在“完整Internet名称”后面输入cluster.heinfo.edu.cn(也可以是其他的名称,但输入的DNS名称必须与输入的IP地址相符),

如果允许远程控制,请选中“允许远程控制”,并在“远程密码”和“确认密码”处输入可以进行远程控制的密码。

②点击“下一步”按钮,进入群集IP地址页面后再进入“端口规则”界面,点击“下一步”按钮,进入“连接”界面。

③在“连接”界面的“主机”栏中输入当前计算机的名称w2003-1,然后点击“连接”按钮,将在“对配置一个新的群集可用的接口”框中显示出连接的计算机的网卡及IP地址。选择与群集IP地址同一网段的地址(用于对外提供网络应用的网卡),然后点击“下一步”按钮,进入设置“主机参数”界面,点击“完成”按钮,系统将自动开始网络负载平衡群集的配置。几分钟后,网络负载平衡群集配置完成。

④打开第二台计算机,并以管理员的身份登录进入。

注意:在网络负载平衡中的每个节点上,管理员账号的用户名和密码最好一致。

⑤然后,在第一台计算机上,用鼠标右键单击新创建的群集,从出现的菜单中选择“添加主机到群集”。将出现“连接”界面,在“主机”中输入第二台计算机的计算机名称,点击“连接”按钮,将会在“对配置群集可用的接口”下面显示出连接的计算机上的网络配置。选择202.206.197.191的网卡,进入主机参数界面,点击“完成”按钮,即可返回网络负载平衡管理器。

⑥关闭网络负载平衡管理器后再进入网络负载平衡管理器。用鼠标右键单击“网络负载平衡群集”,从出现的菜单中选择“连接到现存的”,将会弹出“连接”界面。

输入第一台计算机的名称,点击“连接”按钮,在“群集”下面将列出群集的IP地址,选择此IP地址,并点击“完成”按钮,连接群集即可完成。

以后,如果这两台服务器不能满足需求,可以按以上步骤添加第3台、第4台计算机到网络负载平衡中以满足要求。

篇3:网络负载均衡功能的体现

不管是windows还是linux都会有支持网络负载均衡功能的软件或者是系统自带的模块等设置,那么对于一个企业,尤其是以网站为主的运营结构,更应该注意这方面的问题。现在,我们由一个方案的引入,来熟悉一下网络负载均很功能的知识吧。

目前企业使用的所谓“负载均衡服务器”,实际上它是应用系统的一种控制服务器,所有用户的请求都首先到此服务器,然后由此服务器根据各个实际处理服务器状态将请求具体分配到某个实际处理服务器中,对外公开的域名与IP地址都是这台服务器。负载均衡控制与管理软件安装在这台服务器上,这台服务器一般只做网络负载均衡功能的任务分配,但不是实际对网络请求进行处理的服务器。

一、企业实现Web服务器负载均衡

为了将负载均匀的分配给内部的多个服务器上,就需要应用一定的负载均衡策略。通过服务器负载均衡设备实现各服务器群的流量动态负载均衡,并互为冗余备份。并要求新系统应有一定的扩展性,如数据访问量继续增大,可再添加新的服务器加入负载均衡系统。

对于WEB服务应用,同时有几台机器提供服务,每台机器的状态可以设为regular(正常工作)或backup(备份状态),或者同时设定为regular状态。负载均衡设备根据管理员事先设定的负载算法和当前网络的实际的动态的负载情况决定下一个用户的请求将被重定向到的服务器。而这一切对于用户来说是完全透明的,用户完成了对WEB服务的请求,并不用关心具体是哪台服务器完成的。

二、使用网络地址转换实现多服务器负载均衡

支持网络负载均衡功能的地址转换网关中可以将一个外部IP地址映射为多个内部IP地址,对每次TCP连接请求动态使用其中一个内部地址,达到负载均衡的目的。很多硬件厂商将这种技术集成在他们的交换机中,作为他们第四层交换的一种功能来实现,一般采用随机选择、根据服务器的连接数量或者响应时间进行选择的负载均衡策略来分配负载。然而硬件实现的负载控制器灵活性不强,不能支持更优化的负载均衡策略和更复杂的应用协议。

基于网络地址转换的负载均衡器可以有效的解决服务器端的CPU和磁盘I/O负载,然而负载均衡器本身的性能受网络I/O的限制,在一定硬件条件下具有一定的带宽限制,但可以通过改善算法和提高运行负载均衡程序的硬件性能,来提高这个带宽限制。不同的服务类型对不同的服务器资源进行占用,我们使用的负载衡量策略是使用同一个负载进行评估,这对于大多数条件是适合的,然而最好的办法是针对不同的资源,如CPU、磁盘I/O或网络I/O等,分别监视服务器负载,由中心控制器选择最合适的服务器分发客户请求。

三、使用DNS服务器实现负载均衡

访问企业网服务器的用户急剧增加,一台服务器难以满足用户的访问需要,那么如何才能保证用户的正常访问呢?解决方法有很多,如使用Windows 或Windows Server 提供网络负载均衡功能,但该服务的设置非常复杂,

而通过DNS服务器实现网络负载均衡功能则是一种比较简单的方法。

企业网通常由很多子网构成,为了降低网络中的数据流量,客户机最好能访问处于同一子网内的Web服务器。虽然实现了网络负载均衡功能,但并不能保证客户访问的是本子网的Web服务器。其实这个问题也很好解决,只要启用DNS服务器的“启用网络掩码排序”功能即可。在DNS管理器窗口中,右键点击DNS服务器,在弹出的菜单中选择“属性”,然后在属性对话框中切换到“高级”选项卡,勾选“服务器选项”列表框中的“启用网络掩码排序”选项即可。这样客户机每次都能访问到本子网内的Web服务器了。完成以上设置后,就使DNS服务器实现了网络负载均衡功能,把客户的访问分担到每个Web服务器上,并且还减少了跨子网的网络通信流量,大大降低了企业网的通信负担。

四、企业实现SQL Server数据库服务器负载均衡

MS SQL Server数据库服务器可以说是应用范围最广的数据库产品,并且越来越多地在大型和比较关键的应用系统中提供服务。当企业应用越来越复杂、数据量越来越大的时候,SQL Server数据库要不停的进行处理、存储、查询的工作,这个时候企业就要考虑SQL Server数据库服务器的性能和速度及安全性了。然而,长期以来,SQL SERVER数据库服务器都只有“热备”的解决方案,而没有“负载均衡”和“集群”的解决方案。

随着数据库路由器软件ICX的出现,为基于MS SQL Server的数据库系统提供了一种更优秀的集群解决方案。它可以真正的实现SQL Server数据库服务器的动态负载均衡,提高性能和速度;它可以真正的保证SQL Server数据库服务器不间断的提供服务,在服务器发生故障的时候实时切换到其他服务器上继续提供服务,切换时间为“零”。数据库路由器是实时并发数据库事务处理同步复制器和负载平衡器。

所有的数据库客户都通过ICX访问数据库。当访问、查询SQL Server数据库的时候ICX可以根据实际情况分配服务器来提供服务,大大提高服务速度和优化性能,完成网络负载均衡功能的任务。ICX可以同时连接多台数据库,这若干台数据库的内容在任何时刻由ICX保证是完全一致的。也就是说,ICX采用了全新的并发事务处理的方式,向连接的N台数据库同步复制事务处理,使得系统在任何时刻具有多个一致的最新逻辑数据库数据集。当其中一台数据库服务器发生故障的时候,ICX可以实时的、第一时间切换到其他服务器上来继续提供服务。真正的实现零时间的服务器切换,大大提高安全性,真正意义的实现服务器不间断服务。

篇4:网络负载均衡的主控内容

在网络负载均衡的设定过程中,针对软件方面的设定,通常是分为客户端和主机端两方面的配置问题,那么,现在我们就来介绍一下主机方面的网络负载均衡的控制作用的内容。本例是根据windows系统来讲解的。

挂起或继续网络负载均衡

您可能需要挂起和继续网络负载均衡(NLB)以覆盖发出的任何远程控制命令。将忽略除resume和query之外的所有后续群集控制命令。可以在整个NLB群集上或在单个主机上执行以下步骤。

暂停或继续网络负载均衡

◆使用Windows界面

◆使用命令提示符窗口

使用Windows界面挂起或继续网络负载均衡的步骤

1.若要打开NLB管理器,请依次单击”开始“、”管理工具“和”网络负载均衡管理器“。还可以通过在命令提示符下键入Nlbmgr来打开NLB管理器。

2.如果NLB管理器尚未列出群集,请连接群集。

3.如果您希望暂停所有群集主机上的群集操作,请右键单击群集,指向”控制主机“,然后单击”挂起“。

如果您希望只暂停特定主机上的群集服务,请右键单击该主机,指向”控制主机“,然后单击”挂起“。

4.如果您希望继续所有群集主机上的群集操作,请右键单击群集,指向”控制主机“,然后单击”继续“,

如果您希望只启动特定主机上的群集服务,请右键单击该主机,指向”控制主机“,然后单击”继续“。

注意事项

◆使用网络负载均衡管理器(NLB)时,您必须是正在配置的主机上的Administrators组的成员,或者您必须被委派了适当的权限。如果您通过从不属于群集的计算机运行NLB管理器来配置群集或主机,则您不必是该计算机Administrator组的成员。

◆暂停NLB与停止处理NLB群集通讯不同,原因是暂停NLB不仅会停止主机上的NLB,而且还会暂停主机上的所有NLB群集控制命令(resume和query命令除外)。停止处理NLB群集通讯会停止主机上的NLB,但不影响其他NLB群集控制命令。

使用命令提示符窗口挂起或继续网络负载均衡的步骤

1.若要打开命令提示符窗口,请单击”开始“,右键单击”命令提示符“,然后单击”以管理员身份运行“或”打开“。

2.键入以下命令之一:

◆若要挂起该主机上的NLB,请键入:

nlb.exesuspend

或者,如果希望挂起所有群集主机上的群集操作,请键入:

nlb.exesuspendglobal

◆若要继续该主机上的NLB,请键入:

nlb.exeresume

或者,如果希望继续所有群集主机上的群集操作,请键入:

nlb.exeresumeglobal

篇5:网络负载均衡的相关基础(一)

谈及网络负载均衡,我们总是站在一个制高点上面来讨论它,的确,随着网络的复杂化,这项技术也是越来越重要,越来越不可缺少,那么我们是从何提出这个概念的呢?又是如何去应用它发展它呢?现在我们就带着问题来了解一下相关的信息吧,

负载均衡技术的引入

信息系统的各个核心部分随着业务量的提高、访问量和数据流量的快速增长,其处理能力和计算强度也相应增大,使得单一设备根本无法承担,必须采用多台服务器协同工作,提高计算机系统的处理能力和计算强度,以满足当前业务量的需求。而如何在完成同样功能的多个网络设备之间实现合理的业务量分配,使之不会出现一台设备过忙、而其他的设备却没有充分发挥处理能力的情况。要解决这一问题,可以采用负载均衡的方法。

负载均衡技术有两个方面的含义:首先,把大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间;其次,单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,再返回给用户,使得信息系统处理能力可以得到大幅度提高。

负载均衡主要完成以下任务:

解决网络拥塞问题,就近提供服务,实现地理位置无关性;

为用户提供更好的访问质量;

提高服务器响应速度;

提高服务器及其他资源的利用效率。

在用户端进行优化和在服务器端采用负载均衡策略可以在最大程度上确保网络信息的顺畅流通。

对一个网络负载均衡应用,可以从网络的不同层次入手,具体情况要看对网络瓶颈所在之处的具体情况进行分析。一般来说,企业信息系统的负载均衡大体上都从传输链路聚合、采用更高层网络交换技术和设置服务器集群策略三个角度实现。

链路聚合--低成本的解决方案

为了支持与日俱增的高带宽应用,越来越多的PC机使用更加快速的方法连入网络。而网络中的业务量分布是不平衡的,一般表现为网络核心的业务量高,而边缘比较低,关键部门的业务量高,而普通部门低。伴随计算机处理能力的大幅度提高,人们对工作组局域网的处理能力有了更高的要求。当企业内部对高带宽应用需求不断增大时(例如Web访问、文档传输及内部网连接),局域网核心部位的数据接口将产生瓶颈问题,因此延长了客户应用请求的响应时间。并且局域网具有分散特性,网络本身并没有针对服务器的保护措施,一个无意的动作,像不小心踢掉网线的插头,就会让服务器与网络断开。

通常,解决瓶颈问题采用的对策是提高服务器链路的容量,使其满足目前的需求。例如可以由快速以太网升级到千兆以太网。对于大型网络来说,采用网络系统升级技术是一种长远的、有前景的解决方案。然而对于许多企业,当需求还没有大到非得花费大量的金钱和时间进行升级时,使用升级的解决方案就显得有些浪费了。对于拥有许多网络教室和多媒体教室的普通中学和职业中学,在某些课程的教学期间(比如上传学生制作的网页等等),将产生大量访问Web服务器或进行大量的文档传输;或在县区级的网络信息网上举行优秀老师示范课教学、定期的教学交流等教学活动时,这种情况尤为突出。然而在需求还没有大到非得花费大量的金钱和时间进行升级时,实施网络的升级就显得大材小用了。在这种情况下,链路聚合技术为消除传输链路上的瓶颈与不安全因素提供了成本低廉的解决方案。链路聚合技术将多个线路的传输容量融合成一个单一的逻辑连接,

当原有的线路满足不了需求、而单一线路的升级又太昂贵或难以实现时,就可采用多线路的解决方案。

链路聚合系统增加了网络的复杂性,但也提高了网络的可靠性,使人们可以在服务器等关键局域网段的线路上采用冗余路由。对于计算机局域网系统,可以考虑采用虚拟路由冗余协议(VRRP)。VRRP可以生成一个虚拟缺省的网关地址,当主路由器无法接通时,备用路由器就会采用这个地址,使局域网通信得以继续。总之,当必需提高主要线路的带宽而又无法对网络进行升级的时候,便可以采用链路聚合技术。

高层交换--大型网络解决之道

大型的网络一般都是由大量专用技术设备组成的,如包括防火墙、路由器、第2层/3层交换机、负载均衡设备、缓冲服务器和Web服务器等。如何将这些技术设备有机地组合在一起,是一个直接影响到网络性能的关键性问题。大型网络的核心交换机一般采用高端的机柜式交换机,现在这类交换机一般都提供第四层交换功能,可以将一个外部IP地址映射为多个内部IP地址,对每次TCP连接请求动态使用其中一个内部地址,达到负载均衡的目的。有的协议内部支持与网络负载均衡相关的功能,例如HTTP协议中的重定向能力。 编辑推荐负载均衡技术基础专题

当前,无论在企业网、园区网还是在广域网上,即使按照当时最优配置建设的网络,业务量的发展都超出了过去..

化繁为简之网络负载均衡设置软硬两个角度学习网络负载均衡相关网络负载均衡的三方面概念从原理讲到实例,带你学习网络负载..交换方面的网络负载均衡设置

Web内容交换技术,即URL交换或七层交换技术,提供了一种对访问流量的高层控制方式。Web内容交换技术检查所有的HTTP报头,根据报头内的信息来执行负载均衡的决策,并可以根据这些信息来确定如何为个人主页和图像数据等内容提供服务。它不是根据 TCP端口号来进行控制的,所以不会造成访问流量的滞留。如果Web服务器已经为诸如图像服务、SSL对话和数据库事务服务之类的特殊功能进行了优化,那么,采用这个层次的流量控制将可以提高网络的性能。目前,采用高层交换技术的产品与方案,有许多专用的设备,如3Com公司的3Com SuperStack 3服务器负载均衡交换机和Cisco系统公司的CSS交换机产品等,国内的服务器厂商如联想和浪潮等也都有专用的负载均衡产品。

带均衡策略的服务器群集--满足大量并发访问的需求

随着电子商务和电子政务的开展,网上交易和访问量会明显增加。企业的日常经营和各种办公业务都往上迁移,所传送不仅是一般的文本信息,还有很多视频和语音。如远程教学方兴未艾,不少院校都在全国各地设立网络教学点,进行远程教学和在线辅导,各个站点都必须能够同网络教学中心进行实时交流,在这种情况下,势必也会产生大量并发访问,因此要求网络中心服务器必须具备提供大量并发访问服务的能力。这样,网络中心服务器的处理能力和I/O能力已经成为提供服务的瓶颈。如果客户的增多导致通信量超出了服务器能承受的范围,那么其结果必然是宕机。显然,单台服务器有限的性能不可能解决这个问题,一台普通服务器的处理能力只能达到每秒几万个到几十万个请求,无法在一秒钟内处理上百万个甚至更多的请求。但若能将10台这样的服务器组成一个系统,并通过软件技术将所有请求平均分配给所有服务器,那么这个系统就完全拥有每秒钟处理几百万个甚至更多请求的能力。这就是利用服务器群集实现网络负载均衡的优点。

篇6:Windows 网络负载均衡的实现

三、用IIS服务验证网络负载平衡

网络负载平衡配置好后,为了实现某项具体的服务,需要在网络负载平衡的计算机上安装相应的服务,例如:为了实现IIS网站的负载平衡,需要在相应的网络负载平衡的计算机上安装IIS服务。

安装网络负载平衡的应用程序时,不需要特别的方法,只需要在配置好网络负载平衡的计算机上安装相应的服务即可。但是为了让每个用户在通过网络负载平衡访问到不同的计算机时,能够访问到一致的数据,需要在网络负载平衡的每台计算机上保持数据的一致性。举例来说:实现了两个节点的IIS的网络负载平衡,为了保证两个网站内容的一致性,除了这两个IIS服务器的配置相同外,相应的网站数据必须一致。

为了检验网络负载平衡,我们可以通过IIS来进行验证,其他的一些应用如终端服务、Windows Media服务与IIS的应用相类似。

在网络负载平衡的每一台计算机上安装IIS服务,方法如下:

在“添加/删除程序”中,点击“添加Windows组件”,进入Windows组件向导,双击“应用程序服务器”,进入“应用程序服务器”。

选中ASP.NET、Internet信息服务及应用网络COM+访问后,即可开始安装IIS服务,

安装之后,进入第一台计算机的inetpub”wwwroot目录,新建一个文本文件,输入以下内容:

This win2003-1

然后将它保存为default.htm文件。这个网页在IE中将显示如下内容:

This w2003-1

在第二台计算机的inetpub“wwwroot目录,新建一个文本文件,并输入下面的内容:

This win2003-2

这个网页在IE浏览器中将显示“This w2003-2”,随后将这个文件以default.htm名称保存。

然后,在其他计算机上的IE浏览器中键入cluster.heinfo.edu.cn,将会显示为“This win2003-1”或“This win2003-2”,根据网络的负载,网络负载平衡会自动转发到第一台计算机或第二台计算机。为了验证效果,你可以在浏览的时候,拔掉第一台计算机的网线或拔掉第二台机器的网线,将会发现浏览到的将是不同内容。当然,我们只是测试的时候,为了验证网络负载平衡的效果,两个网站的内容不一致,而在正式应用的时候,网络负载平衡群集的每个节点计算机的内容将是一致的,这样,不管使用那一个节点响应,都保证访问的内容是一致的。

篇7:路由器实现线路负载均衡网络知识

目前实施网间连接时,常常采取双线路连接方式保证 网络 传输的 可靠性 和连续性,其中一条为主干线路,另一条为备份线路,如果单纯考虑线路备份势必使备份线路长期处于闲置状态。 为了保护已有的网络投资,充分利用网络资源,本文以Cisco路由器为例探讨如何

目前实施网间连接时,常常采取双线路连接方式保证网络传输的可靠性和连续性,其中一条为主干线路,另一条为备份线路。如果单纯考虑线路备份势必使备份线路长期处于闲置状态。为了保护已有的网络投资,充分利用网络资源,本文以Cisco路由器为例探讨如何基于策略路由、成本、热备份路由协议等实现线路间负载均衡的方法。

基于策略的线路负载均衡

策略是指网络管理员制定的路由器进行路由的约束条件。约束条件可以根据数据源的IP地址、数据包的大小、具体应用等因素制定,不同的约束条件指定不同的传输线路。路由器进行路由选择时将待转发的数据包同指定的约束条件依次进行比较、转发。当与所有约束条件匹配时按指定的路由将数据包发送出去或抛弃。通过将不同约束条件指定到不同的传输线路上达到线路负载均衡。

基于成本的线路负载均衡

内部网关协议(IGRP)和增强型的内部网关协议(EGRP)是Cisco公司的基于距离DD向量路由协议,通过这两个协议中任何一个都可以实现不等成本(或称开销)的线路负载均衡,

此处成本可以理解为从源节点到目的节点经历所有线路上的费用总和,影响其高低因素包括带宽、延迟、负载等,当带宽越高、延迟越小、负载越轻时线路费用就越少。

基于备份路由协议的负载均衡

HSRP使用组播、基于UDP的hello信号来实现与同一HSRP组内其他路由器间的通信。组内路由器根据指定端口优先级高低,分为主路由器(高优先级)和备份路由器(低优先级)。各路由器之间在默认或规定的时间间隔内交换hello信号,如果主路由器或所连线路变得无法使用,同组内的备份路由器进入激活状态,接管主路由器的路由任务达到线路的热备份。每一个HSRP组有一个活动HSRP IP地址,它属于整个HSRP组,可设置为本组连接的所有局域网设备的缺省网关,通过它将所连设备待转发的数据包沿活动路由器发送出去。

根据这个基本原理,可以将两台路由器分成相互热备份两个HSRP组,如下图组1和组2。组1中,A为主路由器,B为备份路由器。组2中,B为主路由器,A为备份路由器。局域网所有工作站分成两组,分别通过组1和组2进行数据转发。

当两台路由器及所连线路正常时,来自工作站A和B的数据包将分别有路由器A和路由器B转发。当其中某台路由器和所连线路出现故障,所有数据将都沿活动路由转发。

以上分别介绍了三种不同技术下实现网络线路负载均衡方法。三种方法不是相互独立相互排斥的关系,实际的应用可将不同方法综合,达到更加高效、实用的效果。

原文转自:www.ltesting.net

篇8:化繁为简的网络负载均衡设置(一)

对于网络负载均衡的设置,在一些系统上并不是很难实现,那么我们现在就来简单的对三台相同服务器的网络负载均衡设置做一个图示说明。希望通过本文的介绍,能让广大的读者都清楚这个操作过程。自己动手完成配置。

下面就以“www.abcabcabc.com”网站为例,在网络中部署了三台内容相同的Web服务器,来提供对该网站的访问服务?但每台服务器的IP地址都不一样,这就需要在DNS服务器进行设置,才能实现网络负载均衡?

1.启用循环

在Windows系统的DNS管理控制台窗口中,鼠标右键单击DNS服务器图标,在弹出的菜单中选择“属性“,接着切换到“高级”标签页(如图1),确保 “服务器选项“列表框中“启用循环”处于选中状态,最后点击“确定“按钮?

图1 启用循环编辑推荐负载均衡技术基础专题

当前,无论在企业网、园区网还是在广域网上,即使按照当时最优配置建设的网络,业务量的发展都超出了过去..

网络负载均衡端口规则配置大全网络负载均衡设置的三个要点有关于director网络负载均衡功能的..多接入的宽带网络负载均衡策略纵观网络负载均衡发展历史

2.添加主机记录

然后在“cce.net”区域中创建主机记录?在DNS管理控制台窗口中,右键点击“abcabcabc.com“项,选择“新建主机”,弹出“新建主机“对话框,在“名称”栏中输入“www“,IP地址栏中输入其中一台Web服务器的IP地址,如192.168.0.6,最后点击“添加主机”按钮?

但企业网中还有两台内容相同的Web服务器,并且它们的IP地址都不同,因此还需要新建两条主机名为“www“主机记录(如图2),方法同上,只是IP地址栏的内容不同,分别为各自服务器的IP地址?完成了三条主机记录的创建后,就能将用户对 “www.abcabcabc.com” 的访问分担到三台Web服务器中,实现了网络负载均衡?

图2 添加主机记录编辑推荐负载均衡技术基础专题

当前,无论在企业网、园区网还是在广域网上,即使按照当时最优配置建设的网络,业务量的发展都超出了过去..

网络负载均衡端口规则配置大全网络负载均衡设置的三个要点有关于director网络负载均衡功能的..多接入的宽带网络负载均衡策略纵观网络负载均衡发展历史

3.负载均衡优化

通常企业网由很多子网构成,为降低网络中的数据流量,最好客户机能访问处于同一子网内的Web服务器?这时还需要启用DNS的“启用网络掩码排序“功能,就能实现以上操作?

在DNS管理控制台窗口中,右键点击DNS服务器,选择“属性”,然后切换到“高级“标签页,确保 “服务器选项”列表框中“启用网络掩码排序“处于选中状态,(如图3)最后点击“确定”按钮?这样客户机每次都能访问到本子网内的Web服务器了?

图3 启用网络掩码排序

完成以上设置后,就实现了网络负载均衡,把用户的访问分摊到本网段的Web服务器中,减少了跨子网的数据流量,降低整个网络的通信负担?

【责任编辑:佟媛微 TEL:(010)68476606】

编辑推荐负载均衡技术基础专题

当前,无论在企业网、园区网还是在广域网上,即使按照当时最优配置建设的网络,业务量的发展都超出了过去..

网络负载均衡端口规则配置大全网络负载均衡设置的三个要点有关于director网络负载均衡功能的..多接入的宽带网络负载均衡策略纵观网络负载均衡发展历史

篇9:网络减压还靠负载均衡技术

前些年的时候,中小学的教育问题一直是社会舆论的重点话题,那么就是减负问题,搬到我们的网络上面,也存在着同样的问题。越来越多的网络使用,给网络带来了空前压力。那么负载均衡技术就在这种减负的观点中诞生。一种科学的分配方式,是缓解网络工作压力的有效手段。

由于网络的数据流量多集中在中心服务器一端,所以现在所说的负载均衡技术,多指的是对访问服务器的负载进行均衡 (或者说分担)措施。负载均衡,从结构上分为本地负载均衡和地域负载均衡(全局负载均衡),前一种是指对本地的服务器集群做负载均衡,后一种是指对分别放 置在不同的地理位置。在不同的网络及服务器群集之间作负载均衡。

每个主机运行一个所需服务器程序的独立拷贝,诸如Web。FTP。Telnet或e-mail服务器程序。对于某些服务(如运行在 Web服务器上的那些服务)而言,程序的一个拷贝运行在群集内所有的主机上,而网络负载均衡技术则将工作负载在这些主机间进行分配。对于其他服务(例如e- mail),只有一台主机处理工作负载,针对这些服务,网络负载均衡允许网络通讯量流到一个主机上,并在该主机发生故障时将通讯量移至其他主机。

◆DNS

最早的负载均衡技术是通过DNS来实现的,在DNS中为多个地址配置同一个名字,因而查询这个名字的客户机将得到其中一个地址,从而使得不同的客户访问不同的服务器,达到负载均衡的目的。

DNS负载均衡是一种简单而有效的方法,但是它不能区分服务器的差异,也不能反映服务器的当前运行状态。当使用DNS负载均衡的时候,必 须尽量保证不同的客户计算机能均匀获得不同的地址。由于DNS数据具备刷新时间标志,一旦超过这个时间限制,其他DNS服务器就需要和这个服务器交互,以 重新获得地址数据,就有可能获得不同IP地址。因此为了使地址能随机分配,就应使刷新时间尽量短,不同地方的DNS服务器能更新对应的地址,达到随机获得 地址,然而将过期时间设置得过短,将使DNS流量大增,而造成额外的网络问题。DNS负载均衡技术的另一个问题是,一旦某个服务器出现故障,即使及时修改了 DNS设置,还是要等待足够的时间(刷新时间)才能发挥作用,在此期间,保存了故障服务器地址的客户计算机将不能正常访问服务器。

尽管存在多种问题,但它还是一种非常有效的做法,包括Yahoo在内的很多大型网站都使用DNS。

◆代理服务器

使用代理服务器,可以将请求转发给内部的服务器,使用这种加速模式显然可以提升静态网页的访问速度。然而,也可以考虑这样一种技术,使用代理服务器将请求均匀转发给多台服务器,从而达到负载均衡技术的目的。

这种代理方式与普通的代理方式有所不同,标准代理方式是客户使用代理访问多个外部服务器,而这种代理方式是代理多个客户访问内部服务器,因此也被称为反向代理模式。虽然实现这个任务并不算是特别复杂,然而由于要求特别高的效率,实现起来并不简单。

使用反向代理的好处是,可以将负载均衡和代理服务器的高速缓存技术结合在一起,提供有益的性能。然而它本身也存在一些问题,首先就是必须为每一种服务都专门开发一个反向代理服务器,这就不是一个轻松的任务。

代理服务器本身虽然可以达到很高效率,但是针对每一次代理,代理服务器就必须维护两个连接,一个对外的连接,一个对内的连接,因此对于特 别高的连接请求,代理服务器的负载也就非常之大,

反向代理方式下能应用优化的负载均衡策略,每次访问最空闲的内部服务器来提供服务。但是随着并发连接数量 的增加,代理服务器本身的负载也变得非常大,最后反向代理服务器本身会成为服务的瓶颈。

◆地址转换网关

支持负载均衡的地址转换网关,可以将一个外部IP地址映射为多个内部IP地址,对每次TCP连接请求动态使用其中一个内部地址,达到负载均衡的目 的。很多硬件厂商将这种技术集成在他们的交换机中,作为他们第四层交换的一种功能来实现,一般采用随机选择。根据服务器的连接数量或者响应时间进行选择的 负载均衡策略来分配负载。由于地址转换相对来讲比较接近网络的低层,因此就有可能将它集成在硬件设备中,通常这样的硬件设备是局域网交换机。

当前局域网交换机所谓的第四层交换技术,就是按照IP地址和TCP端口进行虚拟连接的交换,直接将数据包发送到目的计算机的相应端口。 通过交换机就能将来自外部的初始连接请求,分别与内部的多个地址相联系,此后就能对这些已经建立的虚拟连接进行交换。因此,一些具备第四层交换能力的局域 网交换机,就能作为一个硬件负载均衡器,完成服务器的负载均衡。

由于第四层交换基于硬件芯片,因此其性能非常优秀,尤其是对于网络传输速度和交换速度远远超过普通的数据包转发。然而,正因为它是使用 硬件实现的,因此也不够灵活,仅仅能够处理几种最标准的应用协议的负载均衡,如HTTP 。当前负载均衡技术主要用于解决服务器的处理能力不足的问题,因此并不能充分发挥交换机带来的高网络带宽的优点。

◆协议内部支持

除了这三种负载均衡方式之外,有的协议内部支持与负载均衡相关的功能,例如HTTP协议中的重定向能力等,HTTP运行于TCP连接的最高层。客 户端通过端口号80的TCP服务直接连接到服务器,然后通过TCP连接向服务器端发送一个HTTP请求。在服务器分清客户端所需的网页和资源之前,至少要 进行四次TCP的数据包交换请求。由于负载平衡设备要把进入的请求分配给多个服务器,因此,它只能在TCP连接时建立,且HTTP请求通过后才能确定如何 进行负载的平衡。当一个网站的点击率达到每秒上百甚至上千次时,TCP连接。HTTP报头信息以及进程的时延已经变得很重要了。在HTTP请求和报头中有 很多对负载平衡有用的信息。首先,也是最重要的一点是,我们可以从这些信息中获知客户端所请求的URL和网页,利用这个信息,负载平衡设备就可以将所有的 图像请求引导到一个图像服务器,或者根据URL的数据库查询内容调用CGI程序,将请求引导到一个专用的高性能数据库服务器。惟一能局限这些信息获取的因 素是负载平衡设备本身的灵活程度。事实上,如果网络管理员熟悉Web内容交换技术,他可以仅仅根据HTTP报头的cookie字段来使用Web内容交换技 术改善对特定客户的服务,如果能从HTTP请求中找到一些规律,还可以充分利用它作出各种决策。除了TCP连接表的问题外,如何查找合适的HTTP报头信 息以及作出负载平衡决策的过程,是影响Web内容交换技术性能的重要问题。

但它依赖于特定协议,因此使用范围有限。根据现有的这些负载均衡技术,并应用优化的均衡策略,来实现后端服务器负载分担的最优状态。

篇10:交换方面的网络负载均衡设置

思科代表性的交换技术PVST,对这方面有所了解的朋友名应该有听说过,那么针对这种树定义的网络负载均衡如何在交换机方面进行实现呢?现在本文就简单的对其进行一个讲述。希望大家能从中学有所获。

PVST主要是防止路由环路和网络负载均衡。

指定根网桥,可以使用下面命令指定交换机为根网桥,如果配置为primary,则交换机的优先级变成24576,配置为secondary,优先级变成 28672.switch(config)#spanning-tree vlan vlan-list (vlan-list代表VLAN号,这条命令启动生成树,交换机默认启动了

下面我就简单说一下命令

首先给所有端口开 trunk

下面配置三层交换机

左下角的一个三层交换机是我的VTP服务器和根网桥,

Switch(config)#spanning-tree vlan 2 root primary

Switch(config)#spanning-tree vlan 3 root secondary

右下角的一个三层交换机是根网桥相连的核心交换机用来做网络负载均衡命令配置如下

Switch(config)#spanning-tree vlan 3 root primary

Switch(config)#spanning-tree vlan 2 root secondary

篇11:服务器负载均衡改善企业网络性能

面对众多的网络服务器,在使用上面也会出现一些问题,除去周遭环境和硬件本身的问题,长时间,大工作量的服务器使用,也会造成其性能的降低,从而影响这个网络的质量。那么,合理的规划服务器的使用就是我们首要解决的问题。那么,下面为大家介绍一下服务器负载均衡的概念和方案。

企业网络应用服务器存在的问题:

1?网络应用服务器的可靠性较差:

应用服务器由于服务器硬件的稳定性?流量压力超载?网络攻击等情况经常会出现意外宕机的情况,从而无法保证网络应用的7x24 小时的持续性服务?

2?网络应用的性能瓶颈:

在网络应用系统中,通常会采用多台服务器同时提供服务的方式?但是由于网络中的流量并不均衡,因此经常会出现某台服务器由于访问量过大而宕机,造成网络应用性能的不稳定,从而影响到整个网络应用系统的性能?

服务器负载均衡解决方案:

我们可以在企业内部网络部署一台服务器负载均衡器,如下图所示:

服务器可以部署在应用服务器的前端,也可以部署在网络的任意位置,这样用户访问首先经过负载均衡器,负载均衡器按照预先制定的负载均衡算法把用户的请求分配到真正的服务器上?如果某一台服务器出现故障(硬件和软件),负载均衡器可以及时检测到,这样新的用户请求就会被分配到工作正常的服务器上,从而避免由于服务器故障影响企业正常运转?

服务器负载均衡方案特点:

◆提高应用服务器的性能和可靠性

◆通过多种负载均衡算法,使应用服务能够保持在一个较高的性能

◆通过健康检查,负载均衡器可以检测到服务器工作状况,以及应用软件的工作状况,以保企业应用的可靠性

◆用户可以在应用服务器工作时,进行服务器的维护,包括增加和减少服务器,并且不会中断应用

编辑推荐负载均衡技术基础专题

当前,无论在企业网、园区网还是在广域网上,即使按照当时最优配置建设的网络,业务量的发展都超出了过去..

Web服务器负载均衡方案扩展宽带汇聚服务 下一代思科服务器..企业网络管理之服务器负载均衡四类服务器负载均衡技术四层交换原理从服务器负载均衡谈起

篇12:在网络崩溃的前部署负载均衡

随着社会信息化水平的提高,电信作为传统的服务行业,其固有的服务领域早已满足不了人们日趋复杂的服务要求,为了维持自身竞争力,拓展增值业务,增加服务领域早已成为各大电信服务商的重中之重。但拓展增值业务的同时,必然会对已有网络设备提出更高的要求,设备的升级和更新换代在所难免。

一、客户(项目)背景

随着中国加入WTO,国内电信市场的竞争日益加剧。为了能够提供更多的服务,开展各种增值业务,降低经营成本,用新技术改造传统业务模式,提高企业效益和市场竞争能力,XXX电信启动了电子商务平台建设工程,这是目前国内最大的电子商务工程项目之一。IBM的websphere系列产品经过激烈竞标,成为XXX电信电子商务平台的基础架构软件。

XXX电信是国内业务种类最为齐全的大型电信运营服务商,拥有大量的移动用户通信,有着完善的基础网络设施,有覆盖全国的传输网和基于传输平台的ATM数据网以及建设中的移动数据网,所有这些都为电子商务的开展提供了有利的条件。

XXX电信电子商务平台包括CA认证系统、支付网关、业务平台、应用系统等,将在总部和遍布全国的分公司分期开展建设。XXX电信电子商务主要提供的业务包括:

◆网上营业厅

◆网上购物

◆手机小额支付

◆安全应用

◆证券交易系统

IBM中间件以其独特的安全机制、简便快速的编程风格、卓越不凡的稳定性、可扩展性和跨平台性,以及强大的事务处理能力和消息通讯能力,成为业界市场占有率最高的消息中间件产品。XXX电信充分利用和整合现有的软硬件资源,基于IBM WebSphere应用服务器,建设了一个统一的应用支撑平台(基于J2EE规范实现),提供一个高性能、可用、可靠、可扩展和可管理的业务系统平台。不过由于整个电子商务平台系统中, 牵涉到了大量的web应用服务器,WAS应用服务器以及数据库服务器, 因此负载均衡设备显得尤为重要。

二、客户需求

1. 高可用性和热备功能

能够在通过对分层的应用服务器进行负载均衡的同时,不会因为一台服务器的宕机而导致整个系统的瘫痪。 负载均衡本身也可实现冗余, 达到多层冗余, 多层热备。

2. 可扩展性

能够在不改变网路环境的情况下,简单的添加和移除应用服务器, 不影响整体应用的性能,做到透明部署。

3. 安全性

具备IDS/IPS等安全防护措施, 能够防范诸如DOS, DDOS等攻击, 确保后台服务不会因为 攻击等事件导致整个系统的瘫痪, 影响业务流程。

4. 可管理性

具备丰富的日志、报表功能,简易高效的操作平台,高效集中的管理模式,能省去管理众多后台服务器而消耗的无谓时间以及人力资源。

5. 高配置的硬件设备

要求配备千兆带宽,多端口交换功能,高容量的内存和缓存,能够实现在主干网络上的拓扑,不造成单点瓶颈。

6. 灵活的负载均衡算法

灵活丰富的负载均衡算法能够确保在不同的应用环境中, 有效地分配网络流量, 充分利用服务器资源。

7. 能实现SSL加速功能, 提高电子商务运作效率

三、梭子鱼解决方案

本方案中,考虑到整个电子商务平台是以中间件为基础架构搭建起来的, 实现分层业务控制, 梭子鱼建议XXX电信采用两台440梭子鱼负载均衡设备组合, 并以服务器直接返回模式(DSR)将负载均衡设备接入网络,对每一层的应用服务器进行负载均衡。该方案具有以下优势:

1.DSR模式为梭子鱼独有负载均衡工作模式,是专门针对如证券行业此种对高并发连接数有严格要求的行业开发的模式。

2.简单快速的网络搭建, 实现网络拓扑零改动。

梭子鱼负载均衡机是提供本地服务器群负载均衡和容错的产品,在充分利用现有资源以及对IT基础设施进行最小变动的前提下有效地进行流量的分配,从而提高服务器的处理性能。对客户端而言,这一切都是透明的。

两台梭子鱼负载均衡机做为一组, 对应用服务器提供负载均衡服务, 并且互为备份,采用“心跳”技术实时监控伙伴设备的同时, 也实现了负载均衡设备的负载均衡。能够避免SPOF和单点瓶颈的问题, 最大限度地发挥负载均衡的能力。

方案整体拓朴示意图如下:

screen.width-333)this.width=screen.width-333">

方案总体设计:

1.将负载均衡机直接接入核心交换机和千兆交换机

2.对web应用进行DSR模式的配置, 防火墙进行端口映射, 将web请求直接转向梭子鱼负载均衡集群

3.在千兆交换机上接入另一组负载均衡集群, DSR模式负载均衡websphere应用服务器

4.同时 对2台数据库服务器实现主次关系的服务器冗余.

四、梭子鱼解决方案的优势

1. IP及Cookie的会话保持

梭子鱼负载均衡机针对Windows终端服务提供了定制的负载均衡技术,可以选择采用IP或Cookie保持的方式,充分保证终端客户端的会话一致性,为电子商务等提供可靠的会话持续性,

2. 完全冗余镜像/“心跳”技术实时监控

梭子鱼负载均衡机的冗余配置非常简单,它们之间不需要任何的特殊电缆相连,只要可以IP寻址到即可。物理拓朴为简单易行的路由模式。当一台梭子鱼负载均衡机由于检修或故障的原因停机后,这时另一台梭子鱼负载均衡机会以最快的速度接管其工作。同时,梭子鱼负载机秒级故障切换技术,确保了终端服务系统的不间断运行。

3. 先进的服务器管理技术 梭子鱼负载均衡机可以对不同性能的服务器进行加权计算,对性能好的服务器可以多分担一些流量。对有用户数限制的服务器,梭子鱼负载均衡机通过连接数限制技术,从而保证服务器连接不会超过限制,同时也保证了性能一般的服务器不会因为连接太多而宕机。

梭子鱼负载均衡主要有两种调度类型,三种动态权重调度方式。

加权轮巡策略(WRR)

轮巡是指将来自客户端的请求依次分配给服务器进行响应。但是由于服务器的性能并不完全相同,有的性能高,处理能力强;有的性能低,处理能力弱。因此简单的轮循对服务器不能做到“因材施用”,这就需要引入权重的概念。权重高的服务器将优先响应连接。

加权最小连接数策略(WLC)

最小连接数策略是指负载均衡机总是选择当前连接数最小的服务器响应客户端的请求。同样,这种方式也没有考虑到不同服务器间性能的差异,而且没有考虑服务器当前的工作状态,因此无法做到“动态均衡”。

权重调度的方式(Adaptive Scheduling):

1.自定义方式。管理员根据服务器的性能,指定相应服务器的权重。

2.通过SNMP_CPU自动调整服务器权重。梭子鱼通过探测服务器CPU的负载自动调整权重,负载越低,权重约大。

3.通过LOAD_URL自动调整服务器权重,梭子鱼通过测试服务器打开LOAD_URL页面,根据该页面返回值(0-100)来自动调整权重。

4. 多层实时的服务器健康检查

梭子鱼负载均衡机会实时地对后台服务器进行健康检查,并决定在真实服务器不可用情况下服务如何处理。梭子鱼负载均衡机服务监控机制可以通过3/4层上(PING, PORT 等)以及7层 (DNS, HTTP, SMTP 等)来实现。

5. 扩充能力灵活

梭子鱼负载均衡机与任何品牌、使用界面、操作系统的网络服务器均兼容,在安装时完全不须改变企业原有的网路架构。当您需要为业务扩充而更新网络服务器时,新设备只要与梭子鱼负载均衡机连接,您不须费时集成新旧设备、或统合协定机制。因此梭子鱼负载均衡机使您对网络服务器的投资更为灵活,随时依企业需求而弹性更新网络架构;若您的企业将扩张至全球,梭子鱼负载均衡机灵活的扩充能力,帮助您轻松添加到全球服务的行列。

6. 集成IPS功能

梭子鱼负载均衡机装备了一个实时更新的入侵检测系统,通过梭子鱼动态更新机制即时获取攻击规则库,可以保护被负载均衡的服务器抵御任何最新的基于连接的攻击,包括以下类型:

◆病毒扩散: 如NIMDA与红色代码这样的网络传播病毒

◆缓存区溢出: 一种常见的获取控制权的恶意攻击方式

◆协议相关:针对一些特定协议如SMTP、DNS或者LDAP的攻击

◆应用相关:针对一些特定应用的攻击如IIS、Websphere、Cold Fusion或者 Exchange

◆操作系统相关:针对已知的不同操作系统弱点的攻击,如微软Windows系统

7. SSL Offloading

SSL Offloading的加入能够将电子商务, 电子政务, 电子税务等网站的SSL密钥计算在负载均衡设备上完成, 有效地减少了应用服务器因为SSL计算而产生的负载, 更大程度地提升了整体应用性能。

新的时代面临新的挑战,摆在电信商面前的是大好的机遇,同时也有巨大的挑战。既有来自同行业竞争者的市场挑战,也有来自内部成本控制、效率提升等方面的挑战,内外挑战相辅相成,相互影响。解决并优化自身网络问题,对企业来说意义重大,梭子鱼定将助电信事业迈上新的台阶。

对于负载均衡功能的学会

网络论文

求解随机凸规划概率约束问题的对偶算法

城乡幼儿教育均衡发展探讨论文

波普尔的概率观评析论文

网络创业论文

网络会计核算论文

论文:分析所得税费用算法新解

浅说高校营销课程的改革建议论文

义务教育发展不均衡原因探求论文

浅说网络概率的负载均衡算法论文(推荐12篇)

欢迎下载DOC格式的浅说网络概率的负载均衡算法论文,但愿能给您带来参考作用!
推荐度: 推荐 推荐 推荐 推荐 推荐
点击下载文档 文档为doc格式
点击下载本文文档