SLB负载均衡是什么?具体是怎么实现的?

小钱 7月前  网络技术   473

最近在接触云资源、云平台,有很多专用名词比如ECS、OSS、RDS等已经基本理解了,其中有个服务叫SLB(负载均衡)一直不不太清楚是什么意思?有人能具体说说吗?

3 个回答
  • 小何同志 7月前
    2
    我来简简说说吧!随着现在信息化的不断深入,有些网站或者信息系统访问量越来越大,并且系统功能也越来越复杂,那么单台服务器就算将性能优化得再好,也不能支撑这么大用户量的访问压力了,这个时候就需要使用多台机器去均衡流量,设计高性能的集群来应对。

    那么,多台服务器如何均衡流量、如何组成高性能的集群的呢?此时就需要用到“负载均衡”了。

    SLB(Server Load Balance),负载均衡,就是把用户访问的流量,通过“负载均衡器”,根据某种转发的策略,均匀地分发到后端多台服务器上,后端的服务器可以独立的响应和处理请求,从而实现分散处理的效果。负载均衡技术解决了单台服务器的单点负载问题,提高了应用的整体服务能力,增强了应用的可用性。有些SLB服务还具备TCP与HTTP抗DDoS攻击的特性,增强了应用服务器的防护能力。
    2 回复引用 引用
  • 嘉兴小伙子 7月前
    3

    SLB的作用大概有以下几项:

    1.可以通过流量分发扩展应用系统对外的服务能力,消除单点故障提升应用系统的可用性,当求中一部分ECS宕机后,应用系统仍可以正常工作。

    2.SLB通过设置虚拟服务地址(IP),将位于同一地域(Region)的多台云服务器(ECS)资源虚拟成一个高性能,高可用的应用服务池。之后将客户端的网络请求分发到云服务器池中,根据规则转发到具体的ECS里。

    3.SLB服务会检查云服务器池中ECS的健康状态,自动隔离异常状态的ECS,从而解决了单台ECS的单点问题,提高了应用的整体服务能力。

    4.在标准的负载均衡功能之外,SLB服务还具备TCP和HTTP抗DDoS攻击的特性,增强应用服务器的防护能力。

    1 回复引用 引用
  • 孤城浪人 7月前
    4

    常见的负载均衡技术方案有三种:基于DNS负载均衡、基于硬件负载均衡、基于软件负载均衡。

    三种方案各有优劣,DNS负载均衡可以实现在地域上的流量均衡,硬件负载均衡主要用于大型服务器集群中的负载需求,而软件负载均衡大多是基于机器层面的流量均衡。在实际场景中,这三种是可以组合在一起使用。

    一、基于DNS负载均衡

    大多数域名注册商都支持对统一主机添加多条A记录(A记录就是服务器的IP,域名绑定A记录就是告诉DNS,当输入域名的时候给你引导向设置在DNS的A记录所对应的服务器。),这就是DNS轮询,DNS服务器将解析请求按照A记录的顺序,随机分配到不同的IP上,这样就完成了简单的负载均衡。

    DNS由于成本较低,所以一般在小型的网站用的比较多。但是大型的网站一般也会将用它和其他负载均衡的方式结合起来一起使用,DNS轮询方式提供的IP地址,在大型网站中往往是一个集群的地址,可能是均衡交换机也可能是均衡服务器。对于小网站的话,如果没有集群,挂接多台服务器也没有问题。

    DNS轮询的优点:

    1. 零成本:只是在DNS服务器上绑定几个A记录,域名注册商一般都免费提供解析服务。


    2. 部署简单:就是在网络拓扑进行设备扩增,然后在DNS服务器上添加记录。

    DNS轮询的缺点:

    1. 可靠性低

    假设一个域名DNS轮询多台服务器,如果其中的一台服务器发生故障,那么所有的访问该服务器的请求将不会有所回应,这是任何人都不愿意看到的。即使从DNS中去掉该服务器的IP,但在Internet上,各地区电信、网通等宽带接入商将众多的DNS存放在缓存中,以节省访问时间,DNS记录全部生效需要几个小时,甚至更久。所以,尽管DNS轮询在一定程度上解决了负载均衡问题,但是却存在可靠性不高的缺点。

    2.负载分配不均匀(有,但不会有那么大的影响)

    DNS负载均衡采用的是简单的轮询算法,不能区分服务器的差异,不能反映服务器的当前运行状态,不能做到为性能较好的服务器多分配请求,甚至会出现客户请求集中在某一台服务器上的情况。

    DNS服务器是按照一定的层次结构组织的,本地DNS服务器会缓存已解析的域名到IP地址的映射,这会导致使用该DNS服务器的用户在一段时间内访问的是同一台Web服务器,导致Web服务器间的负载不均匀。此外,用户本地计算机也会缓存已解析的域名到IP地址的映射。当多个用户计算机都缓存了某个域名到IP地址的映射时,而这些用户又继续访问该域名下的网页,这时也会导致不同Web服务器间的负载分配不均匀。

    负载不均匀可能导致的后果有:某几台服务器负荷很低,而另几台服务器负载很高、处理缓慢;配置高的服务器分配到的请求少,而配置低的服务器分配到的请求多。

    二、硬件负载均衡

    比如大名鼎鼎的 F5 Network Big-IP,也就是我们常说的 F5,它是一个网络设备,你可以简单的理解成类似于网络交换机的东西,完全通过硬件来抗压力,性能是非常的好,每秒能处理的请求数达到百万级,即 几百万/秒 的负载,当然价格也就非常非常贵了,十几万到上百万人民币都有。

    因为这类设备一般用在大型互联网公司的流量入口最前端,以及政府、国企等不缺钱企业会去使用。一般的中小公司是不舍得用的。

    采用 F5 这类硬件做负载均衡的话,主要就是省心省事,买一台就搞定,性能强大,一般的业务不在话下。而且在负载均衡的算法方面还支持很多灵活的策略,同时还具有一些防火墙等安全功能。但是缺点也很明显,一个字:贵。

    三、软件负载均衡

    软件负载均衡是指使用软件的方式来分发和均衡流量。软件负载均衡,分为7层协议 和 4层协议。

    网络协议有七层,基于第四层传输层来做流量分发的方案称为4层负载均衡,例如 LVS,而基于第七层应用层来做流量分发的称为7层负载均衡,例如 Nginx。这两种在性能和灵活性上是有些区别的。

    基于4层的负载均衡性能要高一些,一般能达到 几十万/秒 的处理量,而基于7层的负载均衡处理量一般只在 几万/秒 。

    基于软件的负载均衡的特点也很明显,便宜。在正常的服务器上部署即可,无需额外采购,就是投入一点技术去优化优化即可,因此这种方式是互联网公司中用得最多的一种方式。

    2 回复引用 引用
    • 探知网
      5
        立即登录 立即注册
返回
发新帖