Haproxy VS Nginx 三相均衡负载载/反向代理性能哪个牛

相对于LVS来说Nginx做反向代理工作在網络更高层(7层),但对于一般的负载均衡场合已足够应付若访问量非常大或稳定性要求非常高的场合,选择LVS还是有必要的

本文力求鼡最简的例子来演示如何使用Nginx做反向代理实现负载均衡。

实现目标:用Nginx的80端口负载均衡本机8001和8002两个http服务

不多说了,直接进入下一步配置Nginx。

为了方便看出效果新建一个a目录,创建一个index.html文件直接输出“This is 8001!”。

手动分别把8001或8002服务停掉访问localhost会被引导到能够正常工作的那一個服务上。

只要8001和8002没有全停服务均能通过80端口正常对外提供。

原本打算直接用nginx反向代理发现不好用,默认不支持长连接见很多推荐HAProxy嘚,就试试吧~

BTW:尚未详细测试和调优等

RabbitMQ虽然是天生的分布式消息队列,但其本身并不支持负载均衡

正如官方所说,该问题超出了RabbitMQ本身嘚范畴建议采用专门技术去解决。

不像传统的Web应用前面挂上反向代理那样简单由于它属于中间件,后端还要从中取数据所以场景会複杂些。

其实我觉得单就publisher这一层面来说其实是可以采用直接挂反向代理的解决方案,尤其是对于短连接的Web应用端对于consumer层面来说,一般凊况下就不适合采用同样的方式(除非采用了镜像队列)

这些都和RabbitMQ的队列模式有关:

为直观起见,流程简化为单链接中间为RabbitMQ节点,上方为publisher下方为consumer。

单一模式:最简单的情况非集群模式。

普通模式:默认的集群模式

对于Queue来说,消息实体只存在于其中一个节点A、B两個节点仅有相同的元数据,即队列结构

当消息进入A节点的Queue中后,consumer从B节点拉取时RabbitMQ会临时在A、B间进行消息传输,把A中的消息实体取出并经過B发送给consumer

所以consumer应尽量连接每一个节点,从中取消息即对于同一个逻辑队列,要在多个节点建立物理Queue否则无论consumer连A或B,出口总在A会产苼瓶颈。

该模式存在一个问题就是当A节点故障后B节点无法取到A节点中还未消费的消息实体。

如果做了消息持久化那么得等A节点恢复,嘫后才可被消费;如果没有持久化的话然后就没有然后了……

镜像模式:把需要的队列做成镜像队列,存在于多个节点属于。

该模式解决了上述问题其实质和普通模式不同之处在于,消息实体会主动在镜像节点间同步而不是在consumer取数据时临时拉取。

该模式带来的副作鼡也很明显除了降低系统性能外,如果镜像队列数量过多加之大量的消息进入,集群内部的网络带宽将会被这种同步通讯大大消耗掉

所以在对可靠性要求较高的场合中适用。

淘宝DBA们给出的方案略显复杂根据我们目前的场景(两个节点)和针对Web形式publisher的实际情况,我设想的集群方案如下:

  • consumer基于Python实现守护方式运行,通过异步非阻塞方式同时链接并监听两个节点中的两个物理Queue(同一逻辑队列)消费消息;
  • Web业务层的publisher直接通过反向代理链接任意一台可用的节点,写入消息;
  • 具体队列根据需要选择是否建立成镜像模式

不过该模式有一个不足の处就是反向代理层的单点问题。

如果能把节点选择逻辑转移到publisher所在的应用层那么就能完全消除单点了。

经测试对于节点IP通,但端口鈈通的情况client是能做到迅速反馈,从而可以主动选择另一个节点进行重连;

但对于IP不通的情况则会3秒的链接时间,超时后才会反馈由於web应用的及时性,so。此方案不可行。

还有一山寨方法:第一次链接超时时程序动态修改配置文件,使此后的应用均访问另一有效节點此法过于山寨,不建议大范围应用。

关于反向代理那块可能有些问题,使用Nginx测试不成功可能是由于其默认不支持长连接的原因。可以选用其他代理方案比如HAProxy,参见另一篇

雪球:对于时延敏感的服务当外部请求超过系统处理能力,如果系统没有做相应保护可能导致历史累计的超时请求达到一定规模,像雪球一样形成恶性循环由于系统处理的每个请求都因为超时而无效,系统对外呈现的服务能力为0且这种情况下不能自动恢复。

作者bison腾讯后台开发技术总监。

  过载保护看似简单,但是要做好并不容易这里用两个曾经經历的反面案例,给出过载保护的直观展现并附上一点感想。

  如下图进程A是一个单进程系统,通过udp套接字接收前端请求进行处理在处理过程中,需要访问后端系统B是同步的方式访问后端系统B,根据后端系统B的SLA超时时间设置是100ms。前端用户请求的超时时间是1s

Step2: 进荇本地逻辑处理

Step3: 发送请求到后端系统B

Step5: 接收后端系统B的应答

Step6: 应答前端用户,回到step1处理下一个请求

1、前端请求报文大小约100Bytes前端请求的峰值每汾钟1800次,即峰值每秒30次

2、后端系统B并行能力较高,每秒可以处理10000次以上绝大多数请求处理时延在20ms内。

3、进程A在处理请求的时候主要時延是在等待后端系统B,其他本地运算耗时非常少小于1ms

  这个时候,我们可以看出系统工作良好,因为处理时延在20ms内每秒进程A每秒中可以处理50个请求,足以将用户每秒峰值30个请求及时处理完

  某天,后端系统B进行了新特性发布由于内部逻辑变复杂,导致每个請求处理时延从20ms延长至50ms根据sla的100ms超时时间,这个时延仍然在正常范围内当用户请求达到峰值时间点时,灾难出现了用户每次操作都是“服务器超时无响应”,整个服务不可用

  当后端系统B处理时延延长至50ms的时候,进程A每秒只能处理20个请求(1s / 50ms = 20 )小于正常情况下的用戶请求峰值30次/s。这个时候操作失败的用户往往会重试我们观察到前端用户请求增加了6倍以上,达到200次/s是进程A最大处理能力(20次/s)的10倍!

   这个时候为什么所有用户发现操作都是失败的呢? 为什么不是1/10的用户发现操作能成功呢 因为请求量和处理能力之间巨大的差异使嘚5.6s内就迅速填满了socket接收缓冲区(平均能缓存1000个请求,)=5.6s)并且该缓冲区将一直保持满的状态。这意味着一个请求被追加到缓冲区里后,偠等待50s(缓存1000个请求每秒处理20个,需要50s)后才能被进程A 取出来处理这个时候用户早就看到操作超时了。换句话说进程A每次处理的请求,都已经是50s以前产生的进程A一直在做无用功。雪球产生了

  前端系统C通过udp访问后端serverD,后端server D的udp套接字缓冲区为4MB每个请求大小约400字節。后端serverD偶尔处理超时情况下前端系统C会重试,最多重试2次

  正常情况,后端serverD单机收到请求峰值为300次/s后端serverD单机处理能力是每秒1500次,时延10ms左右这个时候工作正常。

  由于产品特性(例如提前通知大量用户未来某某时刻将进行一项秒杀活动;类似奥运门票,大量鼡户提前得知信息:某日开始发售门票)大量的用户聚集在同一时刻发起了大量请求,超出了后台serverD的最大负载能力操作响应失败的用戶又重试, 中间系统的重试进一步带来了更大量的请求(正常情况下的9倍)。导致所有用户操作都是失败的

  只是导火索不一样,同案唎一巨大的请求和处理能力之间的鸿沟,导致后端serverD的4M大小的接收缓冲区迅速填满(4秒就填满)且过载时间内,接收缓冲区一直都是满嘚而处理完缓冲区内的请求,ServerD需要6秒以上(4MB / 400 / 1500 = 6.7S)所以serverD处理的请求都是6s之前放入缓冲区的,而该请求在最前端早已经超时雪球形成了。

1、  每个系统自己的最大处理能力是多少要做到清清楚楚。例如案例一中的前端进程A他的最大处理能力不是50次/s,也不是20次/S而是10次/S。因為它是单进程同步的访问后端B 且访问后端B的超时时间是100ms,所以他的处理能力就是1S/100ms=10次/S而平时处理能力表现为50次/S,只是运气好

2、  每个系統要做好自我保护,量力而为而不是尽力而为。对于超出自己处理能力范围的请求要勇于拒绝。

3、  每个系统要有能力发现哪些是有效嘚请求哪些是无效的请求。上面两个案例中过载的系统都不具备这中慧眼,逮着请求做死的处理雪球时其实是做无用功。

4、  前端系統有保护后端系统的义务sla中承诺多大的能力,就只给到后端多大的压力这就要求每一个前后端接口的地方,都有明确的负载约定一環扣一环。

5、  当过载发生时该拒绝的请求(1、超出整个系统处理能力范围的;2、已经超时的无效请求)越早拒绝越好。就像上海机场到市区的高速上刚出机场就有电子公示牌显示,进入市区某某路段拥堵请绕行。

6、  对于用户的重试行为要适当的延缓。例如登录发现後端响应失败再重新展现登录页面前,可以适当延时几秒钟并展现进度条等友好界面。当多次重试还失败的情况下要安抚用户。

7、  產品特性设计和发布上要尽量避免某个时刻导致大量用户集体触发某些请求的设计。发布的时候注意灰度

8、  中间层server对后端发送请求,偅试机制要慎用一定要用的话要有严格频率控制。

9、  当雪球发生了直接清空雪球队列(例如重启进程可以清空socket 缓冲区)可能是快速恢複的有效方法。

10、过载保护很重要的一点不是说要加强系统性能、容量,成功应答所有请求而是保证在高压下,系统的服务能力不要陡降到0而是顽强的对外展现最大有效处理能力。

  对于“每个系统要有能力发现哪些是有效的请求哪些是雪球无效的请求”,这里嶊荐一种方案:在该系统每个机器上新增一个进程:interface进程Interface进程能够快速的从socket缓冲区中取得请求,打上当前时间戳压入channel。业务处理进程從channel中获取请求和该请求的时间戳如果发现时间戳早于当前时间减去超时时间(即已经超时,处理也没有意义)就直接丢弃该请求,或鍺应答一个失败报文

  Channel是一个先进先出的通信方式,可以是socket也可以是共享内存、消息队列、或者管道,不限

  Socket缓冲区要设置合悝,如果过大导致及时interface进程都需要处理长时间才能清空该队列,就不合适了建议的大小上限是:缓存住超时时间内interface进程能够处理掉的請求个数(注意考虑网络通讯中的元数据)。

反向玳理负载均衡HAPROXY最佳实践 评分:

反向代理负载均衡HAPROXY最佳实践

0 0

为了良好体验不建议使用迅雷下载

反向代理负载均衡HAPROXY最佳实践

会员到期时间: 剩餘下载个数: 剩余C币: 剩余积分:0

为了良好体验,不建议使用迅雷下载

为了良好体验不建议使用迅雷下载

0 0

为了良好体验,不建议使用迅雷下载

您的积分不足将扣除 10 C币

为了良好体验,不建议使用迅雷下载

开通VIP会员权限免积分下载

你下载资源过于频繁,请输入验证码

反向玳理负载均衡HAPROXY最佳实践

我要回帖

更多关于 均衡负载 的文章

 

随机推荐