Linux基础教程之cluster集群全讲解

  Linux cluster集群

Linux cluster(集群):

cluster:计算机组合,为解决某个特定问题组合起来形成的单个系统;

 

Linux Cluster类型:

   LB:Load Balancing,负载均衡;

   HA:High Availiablity,高可用;

   A=MTBF(平均无故障时长)/(MTBF+MTTR(平均修复时间))

(0,1):90%, 95%, 99%, 99.5%,  99.9%, 99.99%, 99.999%

       A=(0<=1)

   HP:High Performance,高性能;

 

全球计算机性能评测网站:www.top500.org  

 

系统扩展方式:

Scale UP:向上扩展

Scale Out:向外扩展Cluster集群

 

LB Cluster负载均衡集群:

   LB Cluster的实现:

 硬件:

   F5 Big-IP

   Citrix Netscaler

   A10 A10

  软件:

lvs:Linux Virtual Server

nginx

haproxy

ats:apache traffic server

perlbal

pound

 

基于工作的协议层次划分:

   传输层(通用):(DPORT)主要根据目标端口进行转发;

lvs:主要工作在传输层调度;

nginx:(stream)模拟传输层调度;

haproxy:(mode tcp)模拟传输层调度;

应用层(专用):(自定义的请求模型分类)

proxy server:

   http:nginx, httpd, haproxy(mode http), …

   fastcgi:nginx, httpd, …

   mysql:mysql-proxy, …

    站点指标:

PV:Page View 页面入口的浏览量;

UV:Unique Vistor 独立的访问者;

IP:访问网站时使用的外网地址;

 

会话保持:

   (1) session sticky:会话粘性;

Source IP

Cookie 追踪用户身份;

   (2) session replication;

session cluster

   (3) session server

  主从复制集群;

 

lvs:Linux Virtual Server

VS: Virtual Server

RS: Real Server

lvs在不适用的场合使用会带来的麻烦:

  lvs太原生态,使得很多辅助性的工具可控性极低,因为它只是为了调度而生。

  lvs不适用小型站点。

 

lvs:四层路由器,四层交换机;

VS:根据请求报文的目标IP和目标协议及端口将其调度转发至某RealServer,根据调度算法来挑选RS;

 

iptables/netfilter:

iptables:用户空间的管理工具;

netfilter:内核空间上的框架;

流入:PREROUTING –> INPUT

流出:OUTPUT –> POSTROUTING

转发:PREROUTING –> FORWARD –> POSTROUTING

 

DNAT:目标地址转换; PREROUTING;

 

lvs: ipvsadm/ipvs

ipvsadm:用户空间的命令行工具,规则管理器,用于管理集群服务及RealServer;

ipvs:工作于内核空间的netfilterINPUT钩子之上的框架;

注意:一般不建议在lvs调度服务器上做太多的iptables过滤规则。

 

lvs集群类型中的术语:

vs:Virtual Server, Director, Dispatcher, Balancer

rs:Real Server, upstream server, backend server

CIP:Client IP, VIP: Virtual serve ip , DIP: Director IP,RIP: Real server IP

CIP <–> VIP == DIP <–> RIP

 

OS七层模型:

应用层

表示层

会话层

传输层

网络层

数据链路层

物理层

 

lvs集群的类型:

lvs-nat:修改请求报文的目标IP;

lvs-dr:重新封装新的MAC地址,默认使用的类型;

lvs-tun:在原请求IP报文之外新加一个IP首部;

lvs-fullnat:修改请求报文的源和目标IP;

 

lvs-nat:

多目标IP的DNAT,通过将请求报文中的目标地址和目标端口修改为某挑出的RS的RIP和PORT实现转发;

(1)RIP和DIP必须在同一个IP网络,且应该使用私网地址;RS的网关要指向DIP;

(2)请求报文和响应报文都必须经由Director转发;Director易于成为系统瓶颈;

(3)支持端口映射,可修改请求报文的目标PORT;

(4)vs必须是Linux系统,rs可以是任意系统;

 

lvs-dr:

   Direct Routing,直接路由;

   通过为请求报文重新封装一个MAC首部进行转发,源MAC是DIP所在的接口的MAC,目标MAC是某挑选出的RS的RIP所在接口的MAC地址;源IP/PORT,以及目标IP/PORT均保持不变;

   Director和各RS都得配置使用VIP;

(1) 确保前端路由器将目标IP为VIP的请求报文发往Director:

(a) 在前端网关做静态绑定,此种方案不可行;

(b) 在RS上使用arptables;

    (c) 在RS上修改内核参数以限制arp通告及应答级别;

arp_announce

arp_ignore

(2) RS的RIP可以使用私网地址,也可以是公网地址;RIP与DIP在同一IP网络;RIP的网关不能指向DIP,以确保响应报文不会经由Director,在RS的lo别名网卡上配置vip地址

(3) RS跟Director要在同一个物理网络;

(4) 请求报文要经由Director,但响应不能经由Director,而是由RS直接发往Client;

(5) 不支持端口映射;

 

lvs-tun:

   转发方式:不修改请求报文的IP首部(源IP为CIP,目标IP为VIP),而在原IP报文之外再封装一个IP首部(源IP是DIP,目标IP是RIP),将报文发往挑选出的目标RS;

(1) DIP, VIP, RIP都应该是公网地址;

(2) RS的网关不能,也不可能指向DIP,在RS的lo别名网卡上配置vip地址

(3) 请求报文要经由Director,但响应不能经由Director;

(4) 不支持端口映射;

(5) RS的OS得支持隧道功能;

客户端请求:

 client—–CIP VIP——->director——–CIP VIP  DIP RIP———realserver(在lo别名上配置vip);

服务器响应请求:

 realserver——VIP CIP———client

    

 

lvs-fullnat:

通过同时修改请求报文的源IP地址和目标IP地址进行转发;

CIP –> DIP

VIP –> RIP

(1) VIP是公网地址,RIP和DIP是私网地址,且通常不在同一IP网络;因此,RIP的网关一般不会指向DIP;

(2) RS收到的请求报文源地址是DIP,因此,只需响应给DIP;但Director还要将其发往Client;

(3) 请求和响应报文都经由Director;

(4) 支持端口映射;

 

  注意:lvs-fullnat型lvs默认不支持;

 

ipvs scheduler(调度):

根据其调度时是否考虑各RS当前的负载状态,可分为静态方法和动态方法两种:

静态方法:仅根据算法本身进行调度;

RR:roundrobin,轮询;

WRR:Weighted RR,加权轮询;

SH:Source Hashing,实现session sticy,源IP地址hash;将来自于同一个IP地址的请求始终发往第一次挑中的RS,从而实现会话绑定;

    DH:Destination Hashing;目标地址哈希,将发往同一个目标地址的请求始终转发至第一次挑中的RS;

 

动态方法:主要根据每RS当前的负载状态及调度算法进行调度;

Overhead=

LC:least connections

Overhead=activeconns*256+inactiveconns

WLC:Weighted LC

Overhead=(activeconns*256+inactiveconns)/weight

SED:Shortest Expection Delay

Overhead=(activeconns+1)*256/weight

NQ:Never Queue

 

LBLC:Locality-Based LC,动态的DH算法;

LBLCR:LBLC with Replication,带复制功能的LBLC;

 

ipvsadm/ipvs:

ipvs:

  ~]# grep -i -C 10 “ipvs” /boot/config-3.10.0-327.el7.x86_64

  支持的协议:TCP, UDP, AH, ESP, AH_ESP, SCTP;

ipvs集群:

集群服务

服务上的RS

 

ipvsadm命令:

ipvsadm -A|E -t|u|f service-address [-s scheduler] [-p [timeout]] [-M netmask] [–pe persistence_engine] [-b sched-flags]

ipvsadm -D -t|u|f service-address

ipvsadm -C

ipvsadm -R

ipvsadm -S [-n]

ipvsadm -a|e -t|u|f service-address -r server-address [options]

ipvsadm -d -t|u|f service-address -r server-address

ipvsadm -L|l [options]

ipvsadm -Z [-t|u|f service-address]

 

 管理集群服务:增、改、删;

增、改:

ipvsadm -A|E -t|u|f service-address [-s scheduler] [-p [timeout]]

 

删:

ipvsadm -D -t|u|f service-address

 

service-address:

-t|u|f:

-t: TCP协议的端口,VIP:TCP_PORT

-u: TCP协议的端口,VIP:UDP_PORT

-f:firewall MARK,是一个数字;

 

[-s scheduler]:指定集群的调度算法,默认为wlc;

 

管理集群上的RS:增、改、删;

增、改:

   ipvsadm -a|e -t|u|f service-address -r server-address [-g|i|m] [-w weight]

 

 删:

ipvsadm -d -t|u|f service-address -r server-address

 

server-address:

rip[:port]

 

选项:

lvs类型:

-g: gateway, dr类型

-i: ipip, tun类型

-m: masquerade, nat类型

-w weight:权重;

 

清空定义的所有内容:

ipvsadm -C

 

查看:

ipvsadm -L|l [options]

 –numeric, -n:numeric output of addresses and ports

 –exact:expand numbers (display exact values)

 –connection, -c:output of current IPVS connections

 –stats:output of statistics information

–rate :output of rate information

 

保存和重载:

ipvsadm -S = ipvsadm-save

ipvsadm -R = ipvsadm-restore

 

实验测试lvs集群:

  实验环境:准备4台虚拟机,配置一个lvs-nat的lvs集群;

   client客户机IP为192.168.3.7

   director调度服务器准备两块网卡,network 1 (vip):192.168.3.5  network 2(Dip) :192.168.22.1

   realserver1 httpd服务器rip为192.168.22.2 gateway:192.168.22.1

        在realserver1 httpd配置访问主页realserver 1

   realserver2 httpd服务器rip为192.168.22.3gateway:192.168.22.1

        在realserver2 httpd配置访问主页realserver 2

 

 1)以上实验测试环境准备好之后,我们就可以配置lvs director调度服务器了。

在director调度服务器上开启路由转发功能;

blob.png

2)在director调度服务器上配置调度服务,使用rr轮循调配:

blob.png

3)测试lvs的rr轮循功能:

blob.png

4)修改director调度服务器调度方式为wrr加权轮循:

blob.png

5)测试lvs的wrr加权轮循功能:

blob.png

6)修改director调度服务器调度方式为SH源地址哈希:

blob.png

7)测试lvs的SH源地址哈希功能,将客户端IP第一次访问的realserver始终绑定在固定的第一次访问的realserver上。

blob.png

负载均衡集群的设计要点:

(1) 是否需要会话保持;

(2) 是否需要共享存储;

共享存储:NAS, SAN, DS(分布式存储)

数据同步:

课外作业:rsync+inotify实现数据同步,一般不建议使用。

 

lvs-nat:

   设计要点:

(1) RIP与DIP在同一IP网络, RIP的网关要指向DIP;

(2) 支持端口映射;

实践作业(博客):负载均衡一个php应用;

测试:(1) 是否需要会话保持;(2) 是否需要共享存储;

 

lvs-dr:

   dr模型中,各主机上均需要配置VIP,解决地址冲突的方式有三种:

 (1) 在前端网关做静态绑定;不可用;

 (2) 在各RS使用arptables;比较麻烦;

 (3) 在各RS修改内核参数,来限制arp响应和通告的级别;可行;

限制响应级别:arp_ignore(响应)

0:默认值,表示可使用本地任意接口上配置的任意地址进行响应;

1: 仅在请求的目标IP配置在本地主机的接收到请求报文接口上时,才给予响应;

限制通告级别:arp_announce(通告)

0:默认值,把本机上的所有接口的所有信息向每个接口上的网络进行通告;

1:尽量避免向非直接连接网络进行通告;

2:必须避免向非本网络通告;

实验测试lvs集群:

  实验环境:准备4台虚拟机,配置一个lvs-nat的lvs集群;

 

实验测试lvs集群:

  实验环境:准备4台虚拟机,配置一个lvs-dr的lvs集群;

  client客户机IP为:192.168.3.7;

  director调度服务器配置一块网卡,在eno16777736上配置dip:192.168.3.5,在eno16777736:0别名上配置vip:192.168.3.6

 

  realserver1 httpd服务器rip为192.168.3.2,在lo网卡上配置别名vip:192.168.3.6,配置arp_ignore=1 ,arp_announce=2

     realserver2 httpd服务器rip为192.168.3.8,在lo网卡上配置别名vip:192.168.3.6,配置arp_ignore=1 ,arp_announce=2

 

  1)在director调度服务器上配置eno16777736:0别名上配置vip:192.168.3.6:

blob.png

  2)在realserver1 lo网卡别名上配置VIP:192.168.3.6,配置arp_ignore=1 ,arp_announce=2配置网页为<h>realserver1</h>为了方便配置,简化重复操作,提高效率我们可以编写脚本setlvs.sh

blob.png

blob.png

3)在realserver2上同样执行setlvs.sh脚本文件,配置vip在lo网卡别名上,配置arp_ignore=1 ,arp_announce=2,配置网页为:<h>realserver2</h>

blob.png

blob.png

4)配置director调度服务器为wrr加权轮循,lvs类型为lvs-dr:

 blob.png

 

5)测试lvs-dr加权轮循:

blob.png

FWM:FireWall Mark (防火墙标记)

借助于防火墙标记来分类报文,而后基于标记定义集群服务;可将多个不同的应用使用同一个集群服务进行调度;

 

    打标记方法(在Director主机):

   # iptables -t mangle -A PREROUTING -d $vip -p $proto –dport $port -j MARK –set-mark NUMBER

 

基于标记定义集群服务:

   # ipvsadm -A -f NUMBER [options]

 

lvs persistence:持久连接

  持久连接模板:实现无论使用任何算法,在一段时间内,实现将来自同一个地址的请求始终发往同一个RS;

 

  ipvsadm -A|E -t|u|f service-address [-s scheduler] [-p [timeout]]

 

  port Affinity:

每端口持久:每集群服务单独定义,并定义其持久性;

每防火墙标记持久:基于防火墙标记定义持久的集群服务;可实现将多个端口上的应用统一调度,即所谓的port Affinity;

每客户端持久:基于0端口定义集群服务,即将客户端对所有应用的请求统统调度至后端主机,而且必须使用持久连接进行绑定;

blob.png

保存及重载规则:

保存:建议保存至/etc/sysconfig/ipvsadm

ipvsadm-save > /PATH/TO/IPVSADM_FILE

ipvsadm -S > /PATH/TO/IPVSADM_FILE

systemctl stop ipvsadm.service

 

重载:

ipvsadm-restore < /PATH/FROM/IPVSADM_FILE

ipvsadm -R < /PATH/FROM/IPVSADM_FILE

systemctl restart ipvsadm.service

考虑:

(1) Director不可用,整个系统将不可用;SPoF

解决方案:高可用

keepalived

heartbeat/corosync

(2) 某RS不可用时,Director依然会调度请求至此RS;

解决方案:对各RS的健康状态做检查,失败时禁用,成功时启用;

keepalived

heartbeat/corosync, ldirectord

检测方式:

(a) 网络层检测;

(b) 传输层检测,端口探测;

(c) 应用层检测,请求某关键资源;

 

ok –> failure

failure –> ok

 

实验测试:

 搭建lvs-dr类型的MySQL集群做防火墙标记:

 client 客户机IP:192.168.3.7;

 director调度服务器配置一块网卡,在eno16777736上配置dip:192.168.3.5,在eno16777736:0别名上配置vip:192.168.3.6

blob.png

realserver1 mysql服务器rip为192.168.3.2,在lo网卡上配置别名vip:192.168.3.6,配置arp_ignore=1 ,arp_announce=2

     realserver2 mysql服务器rip为192.168.3.8,在lo网卡上配置别名vip:192.168.3.6,配置arp_ignore=1 ,arp_announce=2,创建一个数据库mydb以表示和realserver的区别;

 

我们就延用以上lvs-dr httpd实验的配置:

1)在realserver1 服务器上安装数据库,授权一个test用户可以远程登录:

blob.png

2)在realserver2服务器上安装数据库,授权一个test用户可以远程登录并创建一个mydb的数据库:

blob.png

创建mydb数据库:

blob.png

3)配置director调度服务器,添加3306端口的调度和80端口的调度:

blob.png

blob.png

4)测试MySQL的lvs-dr类型的调度:

blob.png

5)测试httpd的lvs-dr类型的调度:

blob.png

由此可以看出MySQL和httpd是分别进行调度的。

5)使用IPvsadm -C清除调度器上的调度规则。并配置防火墙规则进行调度;

blob.png

blob.png

blob.png

6)测试防火墙标记调度:

blob.png

blob.png

使用ipvsadm -S 保存ipvsadm规则到/etc/sysconig/ipvsadm

    ipvsadm  -S  > /etc/sysconfig/ipvsadm

使用ipvsadm -R 重载ipvsadm规则

    ipvsadm -R  < /etc/sysconfig/ipvsadm 

相关新闻

历经多年发展,已成为国内好评如潮的Linux云计算运维、SRE、Devops、网络安全、云原生、Go、Python开发专业人才培训机构!