Kafka中的KRaft算法

news/2025/2/9 7:48:21 标签: kafka, 分布式, java, spring boot, 运维, 消息队列

我们之前的Kafka值依赖于Zookeeper注册中心来启动的,往里面注册我们节点信息

Kafka是什么时候不依赖Zookeeper节点了

Kafka2.8.0开始就可以不依赖Zookeeper了

可以用KRaft模式代替Zookeeper管理Kafka集群


KRaft Controller和KRaft Leader的关系

两者关系

  • Leader 是 Controller 的选举结果:KRaft Controller 负责 Kafka 集群的管理,如主题管理、分区分配、副本管理等重要任务。在 KRaft 架构下,Controller 节点是从所有 Broker 节点中通过 KRaft 选举机制选出的,当选的这个 “Controller Broker” 节点内部存在一个 Leader 角色, 这个 Leader 负责在 Controller 节点内部以及与其他 Broker 节点之间协调和同步集群元数据等关键信息 也就是说,KRaft Leader 是在 KRaft Controller 选举过程中确定的,用于主导 Controller 相关工作的执行以及与其他节点交互。
  • 数据交互:从数据流转角度看,如图片中展示的,KRaft Controller 会从 KRaft Leader 拉取数据,这是因为 KRaft Leader 维护着最新的集群元数据状态等信息,其他 Controller 需要通过从 Leader 拉取数据来保证自身拥有的集群元数据的一致性和及时性,进而正常执行集群管理职责

Controller 与 Leader 的协作关系

  • 元数据同步Controller 会将集群的元数据信息同步给各个分区的 Leader,使 Leader 能够根据最新的元数据来处理客户端的请求。例如,当分区的副本数量发生变化时,Controller 会将新的副本信息通知给 Leader,以便 Leader 进行数据同步等操作。
  • 故障处理:当 Leader 出现故障时,Controller 会触发新的 Leader 选举流程,并确保新的 Leader 能够尽快接管工作,保证数据的可用性和一致性。同时,Controller 也会与新的 Leader 协作,更新集群元数据,让其他 Broker 和客户端能够及时获取到最新的状态信息

人话

我们会选出一个Broker作为管理集群的Controller,它有一个单分区的内部主题_cluster_metadata

存储元数据信息

然后还会选几个备用Broker,里面有存储元数据信息的单分区的内部主题_cluster_metadata副本

所以并不是每一个Borker都是Controller


为什么用KRaft代替Zookeeper管理kafka集群元数据之Broker扩展差 

Zookeeper管理集群流程
Kafka中会有一个Broker节点被选为控制器Controller,去管理整个集群

如果有一个Broker节点出现故障

那么Controller将负责为故障Broker节点上的分区重新选出新的Leader副本

Kafka的Broker节点都默认接收受控关机

受控关机的好处:尽量减少对客户端服务的中断

假设我们要关闭Broker0

我们会向Broker0发送一个SIG_TERM信号

然后在Broker0关闭之前,我们要向控制器Controller发送一个ControllerShutDownRequet

然后控制器Controller完成分区的重新选主和ISR列表收缩工作

然后Broker0同步阻塞,等待控制器Controller的回复

收缩

然后这个收缩成{2,3}

这里的蓝色表示ISR信息还没有持久化到Zookeeper集群中

然后我们的Controller会在这两个副本中选择一个Partition-的Leader副本

最后把ISR列表信息以及Leader副本信息持久化到Zookeeper集群中

ISR列表为红色,说明已经持久化到Zookeeper集群中了

发送LeaderAndlsrRequest请求

收到该请求的Broker节点将从LeaderAndlsrRequest请求中解析出Leader和ISR列表信息

Kafka1.1.0之前,必须在一个Broker节点明确回复收到数据之后,控制器才会向下一个Broker节点发送LeaderAndlsrRequest请求

Broker从请求中解析出Leader等元数据信息之后,并且把数据存储在本地之后,它才会给Controller一个响应,告知Controller元数据信息是否写入成功

只有Controller收到响应成功之后,他才会向下一个节点例如Broker-3发送LeaderAndlsrRequest请求

Kafka1.0之前,所有的同步元数据操作都是单线程同步阻塞进行的

甚至在关闭之前,Controller一次只会移动一个Leader分区

整个过程都是同步阻塞进行的

当这个节点都迁移完之后

我们的Controller才会向Broker-0节点发送ControlledShutdownResponse响应,Broker-0才会关闭自身服务

总结

  1. 1个控制器需要向ZK单线程更新写入每个分区的最新元数据
  2. 关闭一个Broker服务因为这个单线程写入模式,可能会导致耗时很长
  3. 分区在重新选举Leader的时候,会暂停对外提供读写服务


KRaft模式中Kafka的Controller节点的日志同步过程

在KRaft中将Kafka工作产生的日志都放到了一个单分区的内部主题_cluster_metadata

这个主题中存储的数据是原来Zookeeper集群管理Kafka的时候,在Zookeeper的zNode节点中存储的元数据

PS:这个主题是一个单分区主题

只有一个分区的好处是,可以保证数据的全局有限性

因为一旦Controller产生的日志顺序出现错乱后果是相当严重

因此这是一个Kafka的内部单分区主题

但是这个主题是可以有多个副本的

其中Leader副本存储的是Active Controller节点直接写入的数据

相当于:你配置了多少个Controller角色,这个_cluster_metadata主题就可以自动生成多少个分区的副本

写入数据

例如我们用命令创建主题或者修改分区的时候,Kafka的后台会向Active状态的Controller节点发送元数据信息

并且我们的元数据写入的时候我们还会有任期编号,例如这个蓝色的1

这个编号的目的:表示这条消息是在哪个任期产生的

复制数据

我们的KRaft采用的是拉模式来复制日志

然后我们的日志进行异步提交

提交日志

然后Leader节点会告诉Follower节点,让他们也向日志提交相应的内容

移动高水位

蓝色那条线移动了

KRaft的提交是多数原则,而不是ISR机制

records 的 commit 依据是 quorum 而不是 ISR”,Kafka 传统副本复制中,消息的提交(commit)依赖 ISR(In - Sync Replica,同步副本集)机制。

ISR 是指与 Leader 副本保持同步的 Follower 副本集合,当 Leader 接收到消息并写入本地日志后,只要 ISR 中的多数副本确认收到消息,该消息就可以被标记为已提交

而在 KRaft 中,records 的提交依据是 quorum(法定人数)原则。quorum 指的是在一个分布式系统中,为了达成共识或者完成某个操作所需要的最少节点数量。在 KRaft 的场景下,当满足 quorum 数量的节点确认收到并持久化了 records,这些 records 就会被提交。这与 Kafka 传统副本复制的 ISR 机制在确认消息提交的方式上有所不同,quorum 机制更强调分布式系统中的多数节点的认可,以实现数据的一致性和可靠性

KRaft是多数副本机制,ISR是多数ISR机制(ISR中不一定是全部副本,例如我们副本有5个,ISR中有3个,我们是以ISR中多数确认为主而不是多数副本确认为主,ISR中副本数不等于总副本数)

  • ISR:消息提交并不一定基于多数节点认可。只要 Leader 副本收到 ISR 中所有副本的 ACK 确认(即使 ISR 成员可能少于副本总数的一半 ),就可将消息标记为已提交。 例如,若一个分区有 5 个副本,ISR 集合中有 3 个副本,只要这 3 个副本都确认收到消息,消息就提交,不要求是副本总数的多数。
  • quorum:严格遵循多数节点认可原则。在一个有 n 个节点的分布式系统中,通常需要超过 n/2 的节点认可才能完成相关操作(如消息提交 )。例如,在 5 个节点的系统中,需要至少 3 个节点认可

Raft和KRaft有什么不同? 

在Kafka2.8.0开始就可以不依赖Zookeeper了

可以用KRaft代替Zookeeper管理Kafka集群

Raft算法使用推模式

KRaft算法使用拉模式

在KRaft管理模式中,可以部署奇数个Controller节点

并且有且只有一个Controller节点是Leader节点,也就是Active状态

只有Active状态的Leader节点才可以对外提供服务

其他的节点都是Follower节点

这些Follower状态的Controller节点都是从Active状态的Leader节点拉取元数据,并备份到本地的KRaft log文件中

Kraft的拉模式和Raft的推模式具体有哪些不同呢?各有什么优缺点

在元数据不大的情况下,推模式不是元数据备份的实时性更好吗?为什么要改造成拉模式呢?

因为一开始Kafka的架构就是每个Partition的分区副本都是Follower从Leader副本同步数据

为了遵循一开始的使用架构Kafka才对Raft日志的复制部分进行了改造,改造成了拉模式

其他不同

任期时间

Raft模式中的Leader的任期时间是term

而在KRaft中,Leader的任期时间是epoch

新的状态节点

这个Observer节点不会参与Leader选举

它只是负责发现并从Leader节点中拉取元数据信息

每个Broker节点都充当Observer

控制器节点就充当Leader和Follower

Broker节点会按照需求从Leader节点中拉取本地不存在的元数据信息


全文总结-Zookeeper管理和Raft和KRaft管理的区别 

Zookeeper中Broker受控关机时间长

Kafka1.1.0之前是单线程同步阻塞执行

之后是异步非阻塞执行

  1. 1个控制器需要向ZK单线程更新写入每个分区的最新元数据
  2. 关闭一个Broker服务因为这个单线程写入模式,可能会导致耗时很长
  3. 分区在重新选举Leader的时候,会暂停对外提供读写服务

KRaft和Zookeeper的管理元数据区别

在KRaft中将Kafka工作产生的日志都放到了一个单分区的内部主题_cluster_metadata

这个主题中存储的数据是原来Zookeeper集群管理Kafka的时候,在Zookeeper的zNode节点中存储的元数据

KRaft和Zookeeper的日志提交区别

Zookeeper机制下,我们使用的是ISR机制

KRaft模式下,我们使用的是多数投票机制

KRaft和Zookeeper的备用Controller机制

Zookeeper 管理 Kafka 中的 Controller(只有一个Controller)
  • 选举恢复机制:如前面所说,Kafka 依靠 Zookeeper 进行 Controller 选举,当当前 Controller 节点故障时,Zookeeper 通过删除 “/controller” 节点触发新的选举流程,其他 Broker 竞争成为新的 Controller。这个过程中没有专门预先设定好的备用 Controller 节点,所有非 Controller 的 Broker 都有机会参与选举
  • 潜在问题:在选举期间,可能会有短暂的集群管理空白期,并且如果有大量 Broker 同时竞争 Controller,可能会导致选举过程不稳定或产生 “脑裂” 等问题,影响 Kafka 集群的正常运行。
KRaft 中的 Controller(有一个Active Controller和多个备用Controller)
  • 备用机制:KRaft 中有类似备用 Controller 的概念。在 KRaft 协议中,会有一个 Leader 作为主要的 Controller 负责管理和协调工作,同时存在多个 Follower 节点可以在 Leader 出现故障时快速切换成为新的 Leader(即新的 Controller)。 这些 Follower 节点会实时同步 Leader 的状态和数据,相当于备用的 Controller,能够在故障发生时迅速接管工作,减少集群管理的中断时间
  • 优势:这种机制相比 Zookeeper 管理 Kafka 的 Controller 选举方式,故障切换速度更快,因为备用节点已经在持续同步数据和状态,不需要像 Zookeeper 管理 Kafka 那样重新进行选举流程,从而提高了集群的稳定性和可靠性

KRaft和Raft的区别

Raft模式下,我们是Leader向Follower推数据来进行日志同步

KRaft模式下,我们是Follower向Leader拉数据来进行日志同步

KRaft中有个新角色,是和Zookeeper管理集群的时候一样的角色,也就是Observer

Observer按照需求从Leader节点中拉取本地不存在的元数据信息

Observer 的存在可以帮助集群在不增加选举投票负担的情况下,扩展获取元数据的能力提升系统的读性能


参考文章:bilibli码上加薪 


http://www.niftyadmin.cn/n/5845789.html

相关文章

驱动开发系列34 - Linux Graphics Intel 动态显存技术的实现

一:概述 动态显存技术(Dynamic Video Memory Technology, DVMT)是一种由 Intel 提出的内存分配技术,主要用于整合显卡(集成显卡)系统中,以便动态地调整显存大小,从而在不同的负载场景下优化内存使用和系统性能。 动态显存技术的核心在于共享系统内存。集成显卡没有独立…

【python】matplotlib(animation)

文章目录 1、matplotlib.animation1.1、FuncAnimation1.2、修改 matplotlib 背景 2、matplotlib imageio2.1、折线图2.2、条形图2.3、散点图 3、参考 1、matplotlib.animation 1.1、FuncAnimation matplotlib.animation.FuncAnimation 是 Matplotlib 库中用于创建动画的一个…

微信小程序地图开发总结-规划路线

在现代移动应用中,地图导航功能已成为必不可少的一部分。通过地图 API,我们可以轻松地在应用中集成位置服务和路径规划功能。本篇文章将带大家一起实现一个简单的路径导航功能,使用腾讯地图 API结合微信小程序,实现从当前位置到目…

GitHub Pages + Jekyll 博客搭建指南(静态网站)

目录 🚀 静态网站及其生成工具指南🌍 什么是静态网站?📌 静态网站的优势⚖️ 静态网站 VS 动态网站 🚀 常见的静态网站生成器对比🛠️ 使用 GitHub Pages Jekyll 搭建个人博客📌 1. 创建 GitHu…

什么是网络安全审计?网络安全审计的作用...

网络安全审计通过对网络数据的采集、分析、识别,实时动态监测通信内容、网络行为和网络流量,发现和捕获各种敏感信息、违规行为,实时报警响应,全面记录网络系统中的各种会话和事件,实现对网络信息的智能关联分析、评估…

element-plus el-tree-select 修改 value 字段

element-plus el-tree-select 修改 value 字段 &#xff0c;不显示label 需要注意两个地方&#xff1a; <el-tree-select v-model"value" :data"data" multiple :render-after-expand"false" show-checkbox style"width: 240px" …

FPGA高端项目:实时视频缩放+UltraScale GTH光编码+UDP图传架构,高速接口转网络视频传输,提供工程源码和技术支持

目录 1、前言工程概述免责声明 2、相关方案推荐我已有的所有工程源码总目录----方便你快速找到自己喜欢的项目我这里已有的 GT 高速接口解决方案我这里已有的以太网方案我这里已有的FPGA图像缩放方案 3、工程详细设计方案工程设计原理框图输入视频之-->ADV7611芯片解码HDMI动…

Centos挂载镜像制作本地yum源,并补装图形界面

内网环境centos7.9安装图形页面内网环境制作本地yum源 上传镜像到服务器目录 创建目录并挂载镜像 #创建目录 cd /mnt/ mkdir iso#挂载 mount -o loop ./CentOS-7-x86_64-DVD-2009.iso ./iso #前面镜像所在目录&#xff0c;后面所挂载得目录#检查 [rootlocalhost mnt]# df -h…