背景

随着互联网访问量的急剧增加,单台服务器的能力已严重不能满足需求。则需要从两个方面考虑提高服务能力:1、向上扩展,2、向外扩展

向上扩展的缺点:

1、造价高

2、随着性能的提高,会在某个临界点遇到瓶颈,导致性能随后降低。

向外扩展的优点:

1、造价低

2、提供高并发能力和高可用性

3、可扩展性好。

分类

负载均衡集群(Load Balance)

高可用集群(High Availability Cluster)

高性能集群(High performance computing)

负载均衡集群:由于电信运行商dns的原因,所以不能靠dns来做负载均衡,必须通过前端调度器将请求分发至后端的服务器,以提高并发访问量。但随着访问量的提高,调度器和存储等的限制,访问速度会成为瓶颈,所以需对网站进行功能切分,分别做集群,例如门户网站的分类。为了保证后端服务器提供的内容一致性,网页的静态内容使用rsync+inotify的机制做同步。一个web页面包含多个web对象,而目前的浏览器都支持多线程,所以来自客户端的请求,可能并发多个请求,调度器分发至多个后端服务器,可以提高网页的打开速度。而调度器具有health check的能力,能将挂了的主机移除,也能将恢复的主机加进集群。

优点:提高并发处理能力

高可用集群:可以提高服务的在线能力、服务可用性。例如有两台主机提供web服务,A作为正常提供服务的主机,B作为备用的主机,A不断地将自己的心跳信息用组播的方式传递给B,而B也能去检查A的心跳信息。当B不能得到A的心跳后,则会通过电源交换机关闭A的电源,并将A的ip地址夺过来,启动A之前提供的服务,以提高服务的在线能力。若是多台主机的高可用集群,还可以设置备节点的优先级,来响应主节点挂掉后的动作。

高可用集群传递的不只是心跳信息,还有事务信息(优先级等)。而负责协调完成事务的节点叫做DC(节点中的一台),若DC挂了,则其他主机间推选一个即可。

负载均衡集群和高可用集群的主要区别:

负载均衡集群提供并发处理能力,提供health check

高可用集群提供服务的始终在线能力,提供heartbeat

高性能集群:利用分布式文件系统将复杂问题分解为小问题并行处理。

由于高可用集群的效率不是很高(备份的主机会造成资源浪费),所以需要提高。例如web服务和邮件服务分别在A、B主机启动,然后它俩互为主备,则可以提高效率。但高可用集群在某一时刻资源只能在一台主机上启动。

脑裂:是因为cluster分裂导致的,cluster集群中节点因为处理器忙或者其他原因暂时停止响应时,其他节点可能误认为该节点“已死”,从而夺取共享磁盘(即资源)的访问权,此时极有可能假死节点重新对共享文件系统产生读写操作,从而导致共享磁盘文件系统损坏。

stonith:爆头,shoot the other node in the head通过电源交换机切断检测不到心跳信息的主机的电源。

隔离:fancing,拒绝某个节点访问某个资源。分为节点隔离(stonith)和资源隔离。

为了防止集群脑裂,集群节点应该为3或3个以上的奇数个。

其他知识:

DAS:直接附加存储。内核直接操作块设备的数据。若不同主机同时访问同一文件,则会造成写错误。但效率高。

NAS:网络附加存储。是文件级别的操作,第一个主机写数据时会施加锁,第二个主机就不能写。性能要比DAS差。

 

负载均衡集群实现方法:

1、硬件方式

F5,CITRX,NETSCALER,A10(价格逐渐降低,由于为了防止调度器成为单点故障,所以要配置一台备用设备,所以造价更高了)

2、软件方式

四层:LVS(根据请求的ip和端口来分发),性能好,但对高级特性支持不好。

七层(反向代理):Nginx(http,smtp,pop3,imap),Haproxy(主要是http,tcp(mysql,smtp)),能够精确解码请求的协议,并能做适当修改后向后转发,操作能力强,性能略差于LVS,更适应生产环境。

LVS:Linux virtual server

lvs工作于内核的tcp/ip协议栈的input链,不能和iptables同时工作。当调度器上定义一个集群服务后才会向后进行转发,当请求报文经过prerouting到达input时,经过input上定义的集群策略审查,若是集群服务则请求报文会被送至forward并通过postrouting向后转发。

Lvs也是两段式:ipvsadm(用户空间)和ipvs(内核的input)

内核2.4.23之前并没有ipvs代码,所以需要打补丁。

相关术语:

blob.png

Lvs的类型:

1、Nat模型

2、DR模型

3、TUN模型

Nat模型:工作机制和DNAT一样

blob.png

当客户端请求报文到达调度器时ip报文首部是CIP|VIP,从prerouting送至input发现为集群服务后,将报文转发至forward经postrouting向后转发,此时ip首部变为CIP|RIP1,后端realserver发现是目标地址是自己后进行拆解报文、响应报文、封装报文,此时ip首部为RIP1|CIP,然后经过调度器的源地址转换,ip首部变为VIP|CIP,通过路由设备回应给客户端。

NAT模型遵循的法则:

1、集群节点和调度器必须在一个网络中

2、RIP地址为私有地址,仅用于集群节点间的通信

3、调度器位于客户端和realserver之间,复制处理进出的所有通信

4、realserver网关必须指向DIP

5、调度器支持端口映射

6、realserver可以支持使用任何操作系统

较大规模场景中,调度器容易成为瓶颈,理想状况下后端能带10台主机。生产环境一般不用这种模型。

DR模型:(常用)

blob.png

调度器和realserver都连接在交换机上,并且调度器和RS都配置了VIP,只是RS的VIP被隐藏起来了,不用做通信,只是在响应时修改源地址而已。调度器的VIP配置在网卡上,而DIP配置在网卡别名上,RS的RIP配置在网卡上,VIP配置在网卡别名上。因为在一个网络中,所以调度器和RS的mac地址会通过arp解析得到其他人的mac地址。当请求报文发送至集群网络时ip报文首部为CIP|VIP,这时因为RS的VIP被隐藏起来了,所以只有调度器响应,而位于input链的策略发现是集群服务时,它不会拆解ip首部,而是把mac首部拆了,封装mac(源mac改为调度器的mac,目标mac改为调度器挑选的RS的mac),并向RS转发,报文传至RS时,RS发现目标地址是自己,然后进行响应,封装报文,源地址修改为VIP,目标地址为CIP,然后直接通过路由设备将报文发给客户端。

DR模型遵循的法则:

1、集群节点必须和调度器在同一物理网络中

2、RIP不用为私有地址了,实现了便捷的远程管理和监控

3、调度器只负责进站请求,响应保卫有RS直接发往客户端

4、集群节点不能将网关指向DIP

5、调度器不支持端口映射

6、大多数操作系统能支持RS,因为RS要求隐藏VIP

TUN模型:为了实现异地灾备(不常用)

blob.png

工作机制和DR模型近似。RS有两个IP:RIP、VIP(隐藏的),且RIP是公网地址,RS和调度器不再同一网络,RS可直接将响应报文发送给客户端。调度器也有两个ip:VIP、DIP(别名)。当请求报文发送到调度器时,ip报文首部为CIP|VIP,调度器发现是集群服务想外转发时在CIP|VIP前面封装一层首部DIP|RIP,RS接受报文并且拆分外面的首部后发现目标地址的确为自己,便开始响应并直接经过路由设备回传给客户端,不需要经过调度器。这种模型需要调度器和RS支持隧道机制。

TUN模型遵循的法则:

1、各集群节点可跨越互联网

2、RIP必须为公网地址

3、调度器仅处理入站请求,响应报文则由RS直接发往客户端

4、RS网关不能指向调度器

5、只有支持隧道功能的os才能用于RS

6、不支持端口映射

集群-基础知识
标签: