• -------------------------------------------------------------
  • ====================================

springcloud理论篇一之zookeeper和Eureka对比

elasticsearch dewbay 5年前 (2019-04-12) 1852次浏览 已收录 0个评论 扫描二维码

写在前面
    在对比 zookeeper 和 Eureka 之前,首先来了解一个原则,那就是 CAP 原则,这是啥??????

分布式领域 CAP 理论,
Consistency(一致性), 数据一致更新,所有数据变动都是同步的
Availability(可用性), 好的响应性能
Partition tolerance(分区容忍性) 可靠性
定理:任何分布式系统只可同时满足二点,没法三者兼顾。
忠告:架构师不要将精力浪费在如何设计能满足三者的完美分布式系统,而是应该进行取舍。
关系数据库的 ACID 模型拥有 高一致性 + 可用性 很难进行分区:
Atomicity 原子性:一个事务中所有操作都必须全部完成,要么全部不完成。
Consistency 一致性. 在事务开始或结束时,数据库应该在一致状态。
Isolation 隔离层. 事务将假定只有它自己在操作数据库,彼此不知晓。
Durability. 一旦事务完成,就不能返回。
跨数据库两段提交事务:2PC (two-phase commit), 2PC is the anti-scalability pattern (Pat Helland) 是反可伸缩模式的,JavaEE 中的 JTA 事务可以支持 2PC。因为 2PC 是反模式,尽量不要使用 2PC,使用 BASE 来回避

分布式系统的 CAP 理论:理论首先把分布式系统中的三个特性进行了如下归纳:
● 一致性(C):在分布式系统中的所有数据备份,在同一时刻是否同样的值。(等同于所有节点访问同一份最新的数据副本),换句话就是说,任何时刻,所用的应用程序都能访问得到相同的数据。
● 可用性(A):在集群中一部分节点故障后,集群整体是否还能响应客户端的读写请求。(对数据更新具备高可用性),换句话就是说,任何时候,任何应用程序都可以读写数据。
● 分区容错性(P):以实际效果而言,分区相当于对通信的时限要求。系统如果不能在时限内达成数据一致性,就意味着发生了分区的情况,必须就当前操作在 C 和 A 之间做出选择,换句话说,系统可以跨网络分区线性的伸缩和扩展。

如上图所示意,不可能设计出既满足一致性,有满足可用性还同时满足分区容错性的系统。
进入正题
在了解完了 CAP 原则,我们进入正题,学习一下 Eureka 和 zookeeper 这两个的区别

Eureka:是基于 REST(Representational State Transfer)服务,主要以 AWS 云服务为支撑,提供服务发现并实现负载均衡和故障转移。我们称此服务为 Eureka 服务。Eureka 提供了 Java 客户端组件,Eureka Client,方便与服务端的交互。客户端内置了基于 round-robin 实现的简单负载均衡。在 Netflix,为 Eureka 提供更为复杂的负载均衡方案进行封装,以实现高可用,它包括基于流量、资源利用率以及请求返回状态的加权负载均衡。

zookeeper:是一个高效的分布式协调服务,可以提供配置信息管理、命名、分布式同步、集群管理、数据库切换等服务。它不适合用来存储大量信息,可以用来存储一些配置、发布与订阅等少量信息。Hadoop、Storm、消息中间件、RPC 服务框架、分布式数据库同步系统,这些都是Zookeeper的应用场景。

其中他们都可以被用作分布式系统中的服务治理,作为注册中心,提供服务的注册与发现功能

区别:
Zookeeper保证 CP
当向注册中心查询服务列表时,我们可以容忍注册中心返回的是几分钟以前的注册信息,但不能接受服务直接 down 掉不可用。也就是说,服务注册功能对可用性的要求要高于一致性。但是 zk 会出现这样一种情况,当 master 节点因为网络故障与其他节点失去联系时,剩余节点会重新进行 leader 选举。问题在于,选举 leader 的时间太长,30 ~ 120s, 且选举期间整个 zk 集群都是不可用的,这就导致在选举期间注册服务瘫痪。在云部署的环境下,因网络问题使得 zk 集群失去 master 节点是较大概率会发生的事,虽然服务能够最终恢复,但是漫长的选举时间导致的注册长期不可用是不能容忍的。
Eureka 保证 AP(很多时间为了保证服务高可用,我们的保证 AP)
Eureka 看明白了这一点,因此在设计时就优先保证可用性。Eureka 各个节点都是平等的,几个节点挂掉不会影响正常节点的工作,剩余的节点依然可以提供注册和查询服务。而 Eureka 的客户端在向某个 Eureka 注册或时如果发现连接失败,则会自动切换至其它节点,只要有一台 Eureka 还在,就能保证注册服务可用(保证可用性),只不过查到的信息可能不是最新的(不保证强一致性)。除此之外,Eureka 还有一种自我保护机制,如果在 15 分钟内超过 85%的节点都没有正常的心跳,那么 Eureka 就认为客户端与注册中心出现了网络故障,此时会出现以下几种情况: 

  1. Eureka 不再从注册列表中移除因为长时间没收到心跳而应该过期的服务 
  2. Eureka 仍然能够接受新服务的注册和查询请求,但是不会被同步到其它节点上(即保证当前节点依然可用) 
  3. 当网络稳定时,当前实例新的注册信息会被同步到其它节点中
    因此, Eureka 可以很好的应对因网络故障导致部分节点失去联系的情况,而不会像 zookeeper 那样使整个注册服务瘫痪。
  4. 总结

Eureka 作为单纯的服务注册中心来说要比 zookeeper 更加“专业”,因为注册服务更重要的是可用性,我们可以接受短期内达不到一致性的状况。不过 Eureka 目前 1.X 版本的实现是基于 servlet 的 java web 应用,它的极限性能肯定会受到影响。期待正在开发之中的 2.X 版本能够从 servlet 中独立出来成为单独可部署执行的服务。

作者:洛城铁匠
来源:CSDN
原文:https://blog.csdn.net/weixin_39666581/article/details/81056982
版权声明:本文为博主原创文章,转载请附上博文链接!


露水湾 , 版权所有丨如未注明 , 均为原创丨本网站采用BY-NC-SA协议进行授权
转载请注明原文链接:springcloud理论篇一之zookeeper和Eureka对比
喜欢 (0)
[]
分享 (0)
关于作者:
发表我的评论
取消评论

表情 贴图 加粗 删除线 居中 斜体 签到

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址