下面小编给大家整理了对于负载均衡功能的学会(共含6篇),供大家阅读参考。同时,但愿您也能像本文投稿人“女人淘吧”一样,积极向本站投稿分享好文章。
在集群系统中,负载均衡功能是一项硬性功能,为了让服务器得到完善的分配和利用,我们就需要用负载均衡技术来调节它的工作。那么,针对web服务器集群中,我们来介绍一下它的负载均衡功能是以什么方式实现的。
性价比极高的IA服务器集群
在当前的企业应用中,服务器的处理能力和I/O对于提供服务起着关键作用。如果客户的增多导致数据处理量超出了服务器所能承受的范围,其结果必然是响应缓慢、甚至宕机。众所周知,RISC小型机具有很高的可靠性和性能,但主机系统只是对于复杂任务和有限的并发处理显得高性能,对于简单任务的高并发处理(比如Internet Web应用)有时也难以应付。采用IA(Intel-based Architecture)架构的服务器构建的集群,除了能提供超过小型机的性能外,还能够大大提高整体系统的可靠性。由于IA架构服务器集群所提供的高性能、高可用与高扩展性,以及具备相当好的性价比,因此在企业应用和Internet应用中,越来越多的组织采用IA架构服务器来构建Web服务器及应用服务器集群。
应用场合
目前,越来越多的企业应用和互联网应用都采用服务器集群进行构建。在多层架构应用的各层集群中,包括Web服务器和中间层应用服务器都可以采用负载均衡功能。
◆Web服务器集群
Web服务器集群可以从三个方面进行考虑:
Web服务器仅仅提供静态页面,在这种情况下可以采用手工上传或用专门的静态页面发布系统(比如联想LCMS)将内容传递到Web服务器;
一般的数据库访问,比如网络调查,访问时不需要进行登录(Login)的情况;
需要进行注册登录的BBS、电子商务等,需要考虑到Session(会话)的应用场合,
其中,前两种情况在集群中的负载均衡功能没有任何问题的;而对于第三种情况,需要考虑集群中不同服务器之间Session的同步复制问题。Session技术可以记录用户的基础数据,比如登录时的身份、所做过的操作数据等,能够提高系统的处理效率,其主要应用于需要身份验证的业务中,Session存储技术有三种:本地、横向、纵向,We服务器因该技术的不同会限制用户日后对其的扩充方式,只有支持横向和纵向的才具有Session级系统负载均衡功能。
基于的Web的应用其系统负荷量的测算一般采用峰值的方式,静态页面在PV左右,动态页面平均在400左右(逻辑复杂性越高,PV值越低),在实际部署中采用动静分离可以达到更好的扩展效果。
PV :Page View,一种浏览量统计方法。
◆中间层应用服务器集群
对于应用服务器集群,主要有下面几种:
COM+应用服务器;
J2EE应用服务器;
专业交易中间件(比如Tuxedo);
CORBA中间件。
位于企业应用系统中间层的应用服务器,同样可以通过负载均衡功能构建集群,增强系统的高扩展性和处理能力。
不管是windows还是linux都会有支持网络负载均衡功能的软件或者是系统自带的模块等设置,那么对于一个企业,尤其是以网站为主的运营结构,更应该注意这方面的问题。现在,我们由一个方案的引入,来熟悉一下网络负载均很功能的知识吧。
目前企业使用的所谓“负载均衡服务器”,实际上它是应用系统的一种控制服务器,所有用户的请求都首先到此服务器,然后由此服务器根据各个实际处理服务器状态将请求具体分配到某个实际处理服务器中,对外公开的域名与IP地址都是这台服务器。负载均衡控制与管理软件安装在这台服务器上,这台服务器一般只做网络负载均衡功能的任务分配,但不是实际对网络请求进行处理的服务器。
一、企业实现Web服务器负载均衡
为了将负载均匀的分配给内部的多个服务器上,就需要应用一定的负载均衡策略。通过服务器负载均衡设备实现各服务器群的流量动态负载均衡,并互为冗余备份。并要求新系统应有一定的扩展性,如数据访问量继续增大,可再添加新的服务器加入负载均衡系统。
对于WEB服务应用,同时有几台机器提供服务,每台机器的状态可以设为regular(正常工作)或backup(备份状态),或者同时设定为regular状态。负载均衡设备根据管理员事先设定的负载算法和当前网络的实际的动态的负载情况决定下一个用户的请求将被重定向到的服务器。而这一切对于用户来说是完全透明的,用户完成了对WEB服务的请求,并不用关心具体是哪台服务器完成的。
二、使用网络地址转换实现多服务器负载均衡
支持网络负载均衡功能的地址转换网关中可以将一个外部IP地址映射为多个内部IP地址,对每次TCP连接请求动态使用其中一个内部地址,达到负载均衡的目的。很多硬件厂商将这种技术集成在他们的交换机中,作为他们第四层交换的一种功能来实现,一般采用随机选择、根据服务器的连接数量或者响应时间进行选择的负载均衡策略来分配负载。然而硬件实现的负载控制器灵活性不强,不能支持更优化的负载均衡策略和更复杂的应用协议。
基于网络地址转换的负载均衡器可以有效的解决服务器端的CPU和磁盘I/O负载,然而负载均衡器本身的性能受网络I/O的限制,在一定硬件条件下具有一定的带宽限制,但可以通过改善算法和提高运行负载均衡程序的硬件性能,来提高这个带宽限制。不同的服务类型对不同的服务器资源进行占用,我们使用的负载衡量策略是使用同一个负载进行评估,这对于大多数条件是适合的,然而最好的办法是针对不同的资源,如CPU、磁盘I/O或网络I/O等,分别监视服务器负载,由中心控制器选择最合适的服务器分发客户请求。
三、使用DNS服务器实现负载均衡
访问企业网服务器的用户急剧增加,一台服务器难以满足用户的访问需要,那么如何才能保证用户的正常访问呢?解决方法有很多,如使用Windows 2000或Windows Server 提供网络负载均衡功能,但该服务的设置非常复杂,
而通过DNS服务器实现网络负载均衡功能则是一种比较简单的方法。
企业网通常由很多子网构成,为了降低网络中的数据流量,客户机最好能访问处于同一子网内的Web服务器。虽然实现了网络负载均衡功能,但并不能保证客户访问的是本子网的Web服务器。其实这个问题也很好解决,只要启用DNS服务器的“启用网络掩码排序”功能即可。在DNS管理器窗口中,右键点击DNS服务器,在弹出的菜单中选择“属性”,然后在属性对话框中切换到“高级”选项卡,勾选“服务器选项”列表框中的“启用网络掩码排序”选项即可。这样客户机每次都能访问到本子网内的Web服务器了。完成以上设置后,就使DNS服务器实现了网络负载均衡功能,把客户的访问分担到每个Web服务器上,并且还减少了跨子网的网络通信流量,大大降低了企业网的通信负担。
四、企业实现SQL Server数据库服务器负载均衡
MS SQL Server数据库服务器可以说是应用范围最广的数据库产品,并且越来越多地在大型和比较关键的应用系统中提供服务。当企业应用越来越复杂、数据量越来越大的时候,SQL Server数据库要不停的进行处理、存储、查询的工作,这个时候企业就要考虑SQL Server数据库服务器的性能和速度及安全性了。然而,长期以来,SQL SERVER数据库服务器都只有“热备”的解决方案,而没有“负载均衡”和“集群”的解决方案。
随着数据库路由器软件ICX的出现,为基于MS SQL Server的数据库系统提供了一种更优秀的集群解决方案。它可以真正的实现SQL Server数据库服务器的动态负载均衡,提高性能和速度;它可以真正的保证SQL Server数据库服务器不间断的提供服务,在服务器发生故障的时候实时切换到其他服务器上继续提供服务,切换时间为“零”。数据库路由器是实时并发数据库事务处理同步复制器和负载平衡器。
所有的数据库客户都通过ICX访问数据库。当访问、查询SQL Server数据库的时候ICX可以根据实际情况分配服务器来提供服务,大大提高服务速度和优化性能,完成网络负载均衡功能的任务。ICX可以同时连接多台数据库,这若干台数据库的内容在任何时刻由ICX保证是完全一致的。也就是说,ICX采用了全新的并发事务处理的方式,向连接的N台数据库同步复制事务处理,使得系统在任何时刻具有多个一致的最新逻辑数据库数据集。当其中一台数据库服务器发生故障的时候,ICX可以实时的、第一时间切换到其他服务器上来继续提供服务。真正的实现零时间的服务器切换,大大提高安全性,真正意义的实现服务器不间断服务。
常谈到负载均衡和DNS的问题,那么对于动态的负载均衡,也就是这用地址域名的分配我们应该考虑一些什么问题,这种技术能给我们带来什么样的好处呢?现在我们就来详细地讨论一下这个话题,希望通过这篇文章的详细介绍,能让大家了解DNS扩展的优越性能。
解决网络过载的问题的一个解决方法是在现有的DNS中加入动态负载均衡的特性?
随着计算机网络的应用的日益广泛,在互联网上的负载也变得日益拥挤,这经常导致服务器无法正常地响应,并且影响了一些应用程序的崩溃?而且,这种现象的发生是动态的?解决这个问题的一个方法是建造更加强大的服务器,而另外一个途径就是将客户请求分散到多个服务器上?后者是解决这个问题的一种巧妙的方法,通过这种方法实际上是一种平衡的艺术,可以避免一些服务器过于繁忙而另外的服务器非常空闲的状态?跨服务器的需求分配技术成为网络技术的一个重要课题?
我们来考虑这么两种情况:首先,每个TCP进程会消耗32比特的内存,这样,一个有32MB内存的服务器从理论上支持100万的连接?其次,在多个拥有同样内容的服务器中,用户总是喜欢根据他们自己的经验(或者是一些监测数据)访问一些服务负载较小的服务器,比如说,GetRight就可以选择一个较佳的服务器进行FTP下载?
但是,我们可以可以通过定期地监测服务器的状态并将请求指向最佳服务器来实现请求的分配?这种在多个服务器中根据服务器负载动态定向请求的技术称之为动态负载均衡?这个功能可以加入域名服务(DNS)中,而这是因为域名服务器本身就充当了解析客户请求的主要责任,而具有这种特性的DNS称为dlbDNS(dynamicloadbalanceDNS)?在这里,最佳服务器指的是通过一种排名算法的出最佳排名的服务器?
在这里,我们将要解释通过dlbDNS对DNS扩展所带来的好处?首先,我们必须要考虑dlbDNS设计应该达到的性能:
(1)新的设计必须与原来的DNS应用兼容?
(2)该设计必须要易于配置?
(3)负载均衡必须快速而且有效?
(4)一个主机可以属于多个组或者簇?
(5)对一个请求的响应应当动态地产生?
(6)对服务器的监控应当由不同的进程所产生?
(7)TTL的值应当设为最小以防止其他名字服务器的缓存的响应?
(8)最终的设计应当是一个通用性的名字服务器,可以被同时用于简单的?反向的和动态的请求?
(9)对错误应当有所响应?
(10)负载均衡的过程对用户来说是透明的?
负载均衡模型
有四种负载均衡模型可供使用:首先,RFC1794描述了使用一个特别区域代理以从外部资源获得信息的负载均衡方法,这样,一个新的区域通过名字服务器被载入?这个方法的问题是大量的信息量,包括静态的或者是可能需要分配的信息量,都在区域中进行循环地传送?同时,这个方法也不支持根据被请求的名字所回应的动态创建的虚拟/动态域名?
第二个模型是通过一个专门的负载均衡服务器来解释请求并将其指向一个最佳服务器?这种设计由负载服务器在内部使用虚拟的IP地址?而这种服务器的问题在于需要在被监控地服务器群中加入另外一台服务器而不是使用现有的资源?
第三个模型是通过一个远程监视系统来监视不同服务器的性能,从而提供给DNS一个反馈?这个设计可以帮助解决无法直接观测的系统问题,同时提供给用户以访问时间的测算?这种方式的问题就是在于需要依靠远程网络进行监视并且分发数据?
最后一种方案就是通过内部监视系统来监视服务器的性能,并且提供给DNS的反馈?这主要的优点就是易维护性和管理性,而且也没有安全方面的问题?dlbDNS就是使用的这种方式?
对于初学者,总是会对集群和负载均衡功能进行混淆,那么在这里我们从一些资料中,总结了一些网友的学习经验,在此分享给广大的读者。看看别人的理解和表述,对你的学习是否有所帮助呢?现在就来看看负载均衡功能的实现问题吧。
有两个问题一直没有很好的对自己能解释通,尤其是在没有弄明白这两个问题的相关术语的时候,又去研究相关的衍生问题,搞得自己差点口吐白沫。这两个问题是这样的:
1.集群软件能否实现负载均衡的功能,两者有何差别
2.如何实现数据库的均衡
集群一般有两种:高可用和高性能集群,一般的集群,包括现在的低端双机容错、IBM的HACMP、HP的MCServiceGuard都是高可用性集群,不能做负载均衡;而高性能集群主要是科学计算、科研等一些特殊环境用,在现实应用中比较少。而ORACLE的RAC是基于特殊环境下的应用系统,要求有操作系统层面的分布式锁(DLM)。具体使用起来要作相应的规划,而且不能随便使用,弄不好性能适得其反的差。
前面说过,负载均衡不能完全算高可用性集群的一种,是高性能性集群,普通的HA软件没办法支持象ORACLERAC一样的环境,这不完全是集群软件的功能。
高可用性集群与负载均衡集群的工作原理不同,适用于不同类型的服务。通常,负载均衡集群适用于提供静态数据的服务,如HTTP服务;而高可用性集群既适用于提供静态数据的服务,如HTTP服务,又适用于提供动态数据的服务,如数据库等。高可用性集群之所以能适用于提供动态数据的服务,是由于节点共享同一存储介质,如SAN阵列。也就是说,在高可用性集群内,每种服务的用户数据只有一份,存储在共用存储设备上,在任一时刻只有一个节点能读写这份数据。
高可用性集群对一种服务而言不具有负载均衡功能,它可以提高整个系统的可靠性,但不能增加负载的能力。当然,高可用性集群可以运行多种服务,并适当分配在不同节点上,比如节点A提供Oracle服务,同时节点B提供Sybase服务,这也可以看成是某种意义上的负载均衡,不过这是对多种服务的分配而言,
负载均衡集群适用于提供相对静态的数据的服务,比如HTTP服务。因为通常负载均衡集群的各节点间通常没有共用的存储介质,用户数据被复制成多份,存放于每一个提供该项服务的节点上。
这个困扰我已久一直没有系统整理的问题到这里基本明了了,各位看官到这里旋即也会想到,如果用户有一个由两个节点组成的最小集群,是否可以同时获得高可用性集群和负载均衡集群的效益呢?答案是肯定的。由于高可用性集群适用于提供动态数据的服务,而负载均衡集群适用于提供静态数据的服务,所以我们不妨假设要同时提供Oracle和HTTP服务。用户要在节点A和B上安装HA和NLB软件。把节点A作为Oracle正常工作的节点,节点B作为Oracle服务的后备节点,这是对HA软件而言。对于NLB软件而言,要设置节点B为主ATM(ApplicationTrafficManagement)节点,节点A为后备ATM节点,而节点A和节点B同时又都是HTTP的服务节点。
这样一来,节点A和节点B都是身兼两职,而用户同时得到了一个具有高可用性的Oracle服务和一个具有负载均衡功能的HTTP服务。即使有一个节点发生故障,Oracle服务和HTTP服务都不会因此而中断。
这里涉及到一个关键问题:对于同一种服务,是不能同时获得高可用性与负载均衡功能的(有不同意见的么?)。对一种服务,要么是只有一份数据,放在共用存储设备上,一次被一个节点访问,获得高可用性;要么是把数据复制为多份,存储于每个节点的本地硬盘上,用户的请求同时发送到多个节点上,获得负载均衡功能。这也是F5设备没有提供数据库均衡的解决方案的难点所在。
引文:
首先申明,除了只读型数据库在某些特定条件下可能使用BIGIP实现负载均衡外。F5迄今未推广过读写型数据库的负载均衡方案。
数据库的Cluster和HA是两个概念。在HA方式下,两台数据库服务器只有一台在工作,并且是由Active设备控制盘阵。在发生HA切换时,Backup设备接管盘阵。在Cluster状态下,比如OracleRAC,可以实现两台服务器对同一盘阵的同时控制,并且使用的是同一份数据库文件。在RAC存在的情况下,理论上有可能使用BIGIP实现负载均衡功能,但实际上很难发挥作用,只有在C/S结构下有可能实现,或者是多台应用服务器访问少量数据库服务器的状况下有可能。现在F5中国还未有进行此类测试,如果那位有此类环境可以做一个测试。F5会全力支持测试。
说道负载均衡的理解,相信很多人都能轻而易举的了解,无非就是一个平均分配,增加效率的意思,那么对于负载均衡的应用就相对负载的多。现在我们一般会结合交换机和路由器来使用负载均衡技术。这就引出我们下面的话题,智能负载均衡,也就是路由中的自动,智能分配工作。
智能负载均衡
智能负载均衡模式,是依据接入WAN端带宽的大小比例,自动完成负载均衡工作,进一步协助达成带宽使用率的优化目的。Qno侠诺在智能型负载均衡模式中,提供了联机数均衡与IP均衡两种选择。
联机数均衡是依据WAN端带宽大小比例,将内网所有的联网机数作均衡分配,
例如WAN1接入4M、WAN2接入2M,则联机数就会依据2:1分配。此种配置是网管员最一般的配置模式。
而IP均衡模式是为了避免某些网站(EX银行网站或HTTPS类型的网站),只能接受来自同一个公网IP的所发出封包的瓶颈。如果采用联机数负载均衡模式,会发生该IP所发出的访问封包不一定是从固定WAN口流出,造成特定网站拒绝服务,导致断线的情况发生。如果采用IP均衡,让IP依据WAN端带宽大小进行比例均衡分配,例如WAN1与WAN2的带宽比例为2:1,则PC1、PC2走WAN1,PC3走WAN2,PC4、PC5走WAN1……,即可达到同一个内网PC所发出的应用服务封包,都从固定的WAN口(公网IP)流出,而整体内网IP也会依据带宽大小比例,自动进行均衡配置。此种配置比较适合常常需要进入特定网站时选择。
负载均衡功能的体现一般我们在硬件产品中比较能够容易了解,比如,路由,交换机等,那么根据对这些硬件产品原有的性能分析,不难了解这方面的知识。现在,我们来说一下三种实现负载均衡功能的技术。
1。反向代理负载均衡
使用代理服务器可以将请求转发给内部的Web服务器,使用这种加速模式显然可以提升静态网页的访问速度。因此也可以考虑使用这种技术,让代理服务器将请求均匀转发给多台内部Web服务器之一上,从而达到负载均衡的目的。这种代理方式与普通的代理方式有所不同,标准代理方式是客户使用代理访问多个外部Web服务器,而这种代理方式是多个客户使用它访问内部Web服务器,因此也被称为反向代理模式。
实现这个反向代理能力并不能算是一个特别复杂的任务,但是在负载均衡功能中要求特别高的效率,这样实现起来就不是十分简单的了。每针对一次代理,代理服务器就必须打开两个连接,一个为对外的连接,一个为对内的连接,因此对于连接请求数量非常大的时候,代理服务器的负载也就非常之大了,在最后反向代理服务器会成为服务的瓶颈。
例如,使用Apache的mod_rproxy模块来实现负载均衡功能时,提供的并发连接数量受Apache本身的并发连接数量的限制。一般来讲,可以使用它来对连接数量不是特别大,但每次连接都需要消耗大量处理资源的站点进行负载均衡,例如搜寻。
使用反向代理的好处是,可以将负载均衡和代理服务器的高速缓存技术结合在一起,提供有益的性能,具备额外的安全性,外部客户不能直接访问真实的服务器。并且实现起来可以实现较好的负载均衡策略,将负载可以非常均衡的分给内部服务器,不会出现负载集中到某个服务器的偶然现象。
2。基于NAT的负载均衡
网络地址转换为在内部地址和外部地址之间进行转换,以便具备内部地址的计算机能访问外部网络,而当外部网络中的计算机访问地址转换网关拥有的某一外部地址时,地址转换网关能将其转发到一个映射的内部地址上。因此如果地址转换网关能将每个连接均匀转换为不同的内部服务器地址,此后外部网络中的计算机就各自与自己转换得到的地址上服务器进行通信,从而达到负载分担的目的,
地址转换可以通过软件方式来实现,也可以通过硬件方式来实现。使用硬件方式进行操作一般称为交换,而当交换必须保存TCP连接信息的时候,这种针对OSI网络层的操作就被称为第四层交换。支持负载均衡的网络地址转换为第四层交换机的一种重要功能,由于它基于定制的硬件芯片,因此其性能非常优秀,很多交换机声称具备400MB-800MB的第四层交换能力。
使用软件方式来实现基于网络地址转换的负载均衡则要实际的多,除了一些厂商提供的解决方法之外,更有效的方法是使用免费的自由软件来完成这项任务。其中包括Linux Virtual Server Project中的NAT实现方式,或者本文作者在FreeBSD下对natd的修订版本。一般来讲,使用这种软件方式来实现地址转换,中心负载均衡器存在带宽限制,在100MB的快速以太网条件下,能得到最快达80MB的带宽,然而在实际应用中,可能只有40MB-60MB的可用带宽。
3。扩展的负载均衡
使用网络地址转换来实现负载分担,毫无疑问所有的网络连接都必须通过中心负载均衡器,那么如果负载特别大,以至于后台的服务器数量不再在是几台、十几台,而是上百台甚至更多,即便是使用性能优秀的硬件交换机也会遇到瓶颈。此时问题将转变为,如何将那么多台服务器分布到各个互联网的多个位置,分散网络负担。当然这可以通过综合使用DNS和NAT两种方法来实现,然而更好的方式是使用一种半中心的负载均衡功能。
在这种半中心的负载均衡功能下,即当客户请求发送给负载均衡器的时候,中心负载均衡器将请求打包并发送给某个服务器,而服务器的回应请求不再返回给中心负载均衡器,而是直接返回给客户,因此中心负载均衡器只负责接受并转发请求,其网络负担就较小了。
同样,这种方式的硬件实现方式也非常昂贵,但是会根据厂商的不同,具备不同的特殊功能,例如对SSL的支持等。
由于这种方式比较复杂,因此实现起来比较困难,它的起点也很高,当前情况下网站并不需要这么大的处理能力。
★ 均衡发展心得体会
★ 对于近义词
★ 对于梦想
★ 营养要均衡说课稿
★ 均衡检查材料总计
★ 散文:对于自己
★ 对于的同义词