LVS 介绍:
主流开源软件 LVS、keepalived、haproxy、nginx 等
其中 LVS 属于 4 层(网络 OSI 7 层模型),nginx 属于 7 层,haproxy 既可以认为是 4 层,也可以当做 7 层使用
keepalived 的 负载均衡 功能其实就是内嵌了 lvs 的功能。
lvs 这种 4 层的负载均衡是可以分发除 80 外的其他端口通信的,比如 MySQL 的,而 nginx 仅仅支持 http,https,mail,haproxy 也支持 MySQL 这种
相比较来说,LVS 这种 4 层的更稳定,能承受更多的请求,而 nginx 这种 7 层的更加灵活,能实现更多的个性化需求。
LVS 是由国人章文嵩开发
流行度不亚于 apache 的 httpd,基于 TCP/IP 做的路由和转发,稳定性和效率很高
LVS 最新版本基于 Linux 内核 2.6,有好多年不更新了
LVS 架构中有一个核心角色叫做分发器(Load balancer),它用来分发用户的请求,还有诸多处理用户请求的服务器(Real Server,简称 rs)
在调度器的实现技术中,IP 负载均衡技术是效率最高的。在已有的 IP 负载均衡技术中有通过网络地址转换(Network Address Translation)将一组服务器构成一个高性能的、高可用的虚拟服务器,我们称之为 VS/NAT 技术(Virtual Server via Network Address Translation),大多数商品化的 IP 负载均衡调度器产品都是使用此方法,如 Cisco 的 LocalDirector、F5 的 Big/IP 和 Alteon 的 ACEDirector。在分析 VS/NAT 的缺点和网络服务的非对称性的基础上,我们提出通过 IP 隧道实现虚拟服务器的方法 VS/TUN(Virtual Server via IP Tunneling),和通过直接路由实现虚拟服务器的方法 VS/DR(Virtual Server via Direct Routing),它们可以极大地提高系统的伸缩性。所以,IPVS 软件实现了这三种 IP 负载均衡技术,它们的大致原理如下(我们将在其他章节对其工作原 理进行详细描述):
LVS 有三种常见的模式:NAT、DR、IP Tunnel
LVS NAT 模式:
工作原理:
Virtual Server via Network Address Translation(VS/NAT)
通过网络地址转换,调度器重写请求报文的目标地址,根据预设的调度算法,将请求分派给后端的真实服务器;真实服务器的响应报文通过调度器时,报文的源地址被重写,再返回给客户,完成整个负载调度过程。。
缺点:
可想而知,Load Balancer 的角色就是分发,如果访问流量很大,它既要处理分发给 Real server 又要处理访问的请求,同时还要把处理的结果传给用户,这样就影响了性能,降低了效率。所以使用这种模式作为业务运行的时候业务量不大可以考虑,规模在 10 台一下,问题不大,除非硬件资源全千兆环境 + 万兆光纤。
优势:
在 nat 模式中,只需要分发器有公网 ip 即可,其他的 real server 均为内网 IP 即可,所以比较节省公网 ip 资源。
LVS IP Tunnel 模式:
工作原理:
Virtual Server via IP Tunneling(VS/TUN)
采用 NAT 技术时,由于请求和响应报文都必须经过调度器地址重写,当客户请求越来越多时,调度器的处理能力将成为瓶颈。为了解决这个问题,调度器把请求报 文通过 IP 隧道转发至真实服务器,而真实服务器将响应直接返回给客户,所以调度器只处理请求报文。由于一般网络服务应答比请求报文大许多,采用 VS/TUN 技术后,集群系统的最大吞吐量可以提高 10 倍。
Load Balancer:
客户端请求的目标 IP 为 vip,分发器接收到请求数据包后,会对数据包做一个加工,会把目标 IP 改为 rs 的 IP,依次转发数据到 rs 上。
Real server:
rs 接收数据包后,会还原原始数据包,这样目标 IP 为 vip,因为所有 rs 上配置了这个 vip,所以它会认为是它自己,然后处理完请求就会直接通过公网的 IP 不需要通过 Load Balancer 传送给用户!
由此看来,Load Balancer 的压力相对于 NAT 模式要提升了很大的效率,Load Balancer 只需要处理用户访问的数据即可。大大提升了效率。
LVS DR 模式:
Virtual Server via Direct Routing(VS/DR)
VS/DR 通过改写请求报文的 MAC 地址,将请求发送到真实服务器,而真实服务器将响应直接返回给客户。同 VS/TUN 技术一样,VS/DR 技术可极大地 提高集群系统的伸缩性。这种方法没有 IP 隧道的开销,对集群中的真实服务器也没有必须支持 IP 隧道协议的要求,但是要求调度器与真实服务器都有一块网卡连 在同一物理网段上。
Load Balancer:
和 IP Tunnel 不同的是,它会把数据包的 MAC 地址修改为 rs 的 MAC 地址。
Real server:
rs 接收数据包后,会还原原始数据包,这样目标 IP 为 vip,因为所有 rs 上配置了这个 vip,所以它会认为是它自己
和 IP Tunnel 不同的是,IP Tunnel 使用的是目标 IP。DR 模式使用的是 Mac 地址。
LVS 的调度算法:
针对不同的网络服务需求和服务器配置,IPVS 调度器实现了如下八种负载调度算法:
轮叫(Round Robin)
调度器通过”轮叫”调度算法将外部请求按顺序轮流分配到集群中的真实服务器上,它均等地对待每一台服务器,而不管服务器上实际的连接数和系统负载。
加权轮叫(Weighted Round Robin)
调度器通过”加权轮叫”调度算法根据真实服务器的不同处理能力来调度访问请求。这样可以保证处理能力强的服务器处理更多的访问流量。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
最少链接(Least Connections)
调度器通过”最少连接”调度算法动态地将网络请求调度到已建立的链接数最少的服务器上。如果集群系统的真实服务器具有相近的系统性能,采用”最小连接”调度算法可以较好地均衡负载。
加权最少链接(Weighted Least Connections)
在集群系统中的服务器性能差异较大的情况下,调度器采用”加权最少链接”调度算法优化负载均衡性能,具有较高权值的服务器将承受较大比例的活动连接负载。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
基于局部性的最少链接(Locality-Based Least Connections)
“基于局部性的最少链接”调度算法是针对目标 IP 地址的负载均衡,目前主要用于 Cache 集群系统。该算法根据请求的目标 IP 地址找出该目标 IP 地址最近使用的服务器,若该服务器 是可用的且没有超载,将请求发送到该服务器;若服务器不存在,或者该服务器超载且有服务器处于一半的工作负载,则用”最少链接”的原则选出一个可用的服务 器,将请求发送到该服务器。
带复制的基于局部性最少链接(Locality-Based Least Connections with Replication)
“带复制的基于局部性最少链接”调度算法也是针对目标 IP 地址的负载均衡,目前主要用于 Cache 集群系统。它与 LBLC 算法的不同之处是它要维护从一个 目标 IP 地址到一组服务器的映射,而 LBLC 算法维护从一个目标 IP 地址到一台服务器的映射。该算法根据请求的目标 IP 地址找出该目标 IP 地址对应的服务 器组,按”最小连接”原则从服务器组中选出一台服务器,若服务器没有超载,将请求发送到该服务器,若服务器超载;则按”最小连接”原则从这个集群中选出一 台服务器,将该服务器加入到服务器组中,将请求发送到该服务器。同时,当该服务器组有一段时间没有被修改,将最忙的服务器从服务器组中删除,以降低复制的 程度。
目标地址散列(Destination Hashing)
“目标地址散列”调度算法根据请求的目标 IP 地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。
源地址散列(Source Hashing)
“源地址散列”调度算法根据请求的源 IP 地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。
性能
LVS 服务器集群系统具有良好的伸缩性,可支持几百万个并发连接。配置 100M 网卡,采用 VS/TUN 或 VS/DR 调度技术,集群系统的吞吐量可高达 1Gbits/s;如配置千兆网卡,则系统的最大吞吐量可接近 10Gbits/s。
可靠性
LVS 服务器集群软件已经在很多大型的、关键性的站点得到很好的应用,所以它的可靠性在真实应用得到很好的证实。有很多调度器运行一年多,未作一次重启动。
更多详情点击如下链接:
http://www.linuxvirtualserver.org/zh/lvs2.html