在kafka_2.8.0之前,kafka还是需要依赖zookeeper运行,kafka中的很多数据都存储在zk中, 例如 「Broker的注册信息」、「Topic的信息」 、 「运维操作临时信息 」、 「配置信息」等等其他信息。
下面我们用用一张图来窥探kafka在zookeeper中的全貌,建议收藏!!!
一图知全貌
kafka在zookeeper中的数据结构
1/cluster
01- /cluster/id 持久数据节点
集群ID 当第一台Broker启动的时候, 发现/cluster/id不存在,那么它就会把自己的cluster.id配置写入zk; 标记当前zk是属于集群哪个集群; 后面其他的Broker启动的时候会去获取该数据, 如果发现数据跟自己的配置不一致; 则抛出异常,加入的不是同一个集群; 数据示例:{"version":"1","id":"0"}
2/controller_epoch 持久数据节点
Controller选举次数;
3/Controller 临时数据节点
当前Controller角色的BrokerId,数据示例:{"version":1,"brokerid":0,"timestamp":"1624415590383"}删除该节点立马触发重新选举
4/log_dir_event_notification
zk的数据中有一个节点/log_dir_event_notification/,这是一个序列号持久节点 这个节点在kafka中承担的作用是: 当某个Broker上的LogDir出现异常时(比如磁盘损坏,文件读写失败,等等异常): 向zk中新增一个子节点/log_dir_event_notification/log_dir_event_序列号 ;Controller监听到这个节点的变更之后,会向Brokers们发送LeaderAndIsrRequest请求; 然后做一些副本脱机的善后操作
5/isr_change_notification/log_dir_event_{序列号}
当Isr有变更的时候,会写入这个节点Controller监听变更
6/admin
01 -/admin/delete_topics/{topicName} 持久节点,待删除Topic
存在此节点表示 当前Topic需要被删除
02 - /admin/reassign_partitions 持久数据节点
如果有此节点,表示当前正在进行数据迁移,里面的数据就是正在迁移的配置 示例数据:
7/brokers
01 -/brokers/seqid
/brokers/seqid: 全局序列号里面没有数据,主要是用了节点的dataVersion信息来当全局序列号
在kafka中的作用: 自动生成BrokerId主要是用来自动生成brokerId; 一个集群如果特别大,配置brokerId的时候不能重复,一个个设置比较累; 可以让Broker自动生成BrokerId
server.properties 配置
- ## 设置Brokerid能够自动生成
- broker.id.generation.enable=true
- ## 设置BrokerId<0 (如果>=0则以此配置为准)
- broker.id=-1
- ## 自动生成配置的起始值
- reserved.broker.max.id=20000
BrokerId计算方法
brokerId = {reserved.broker.max.id} +/brokers/seqid.dataVersion
每次想要获取/brokers/seqid的dataVersion值的时候都是用 set方法,set的时候会返回version数据,并不是get;每次set这个节点数据,版本信息就会自增;所以就实现了全局自增ID了;
02 - /brokers/ids/{id} 临时数据节点 : 在线BrokerID
在线的Broker都会在这里注册一个节点; 下线自动删除
03 - /brokers/topics/{topicName}持久数据节点
存储 topic的分区副本分配信息 例如:{"version":1,"partitions":{"0":[0]}}
/brokers/topics/{topicName}/{分区号}/state 持久数据节点
存储指定分区的leader和isr等信息 例如:{"controller_epoch":203,"leader":0,"version":1,"leader_epoch":0,"isr":[0]}
本文转载自微信公众号「石臻臻的杂货铺」,可以通过以下二维码关注。转载本文请联系石臻臻的杂货铺公众号。