解决kafka集群由于默认的__consumer_offsets这个topic的默认的副本数为1而存在的单点故障问题
转自:https://blog.51cto.com/u_15278282/4896623解决kafka集群由于默认的__consumer_offsets这个topic的默认的副本数为1而存在的单点故障问题抛出问题:__consumer_offsets这个topic是由kafka自动创建的,默认50个,但是都存在一台kafka服务器上,这是不是就存在很明显的单点故障? 经测试,如果将存储__cons
转自:https://blog.51cto.com/u_15278282/4896623
解决kafka集群由于默认的__consumer_offsets这个topic的默认的副本数为1而存在的单点故障问题
抛出问题:
__consumer_offsets这个topic是由kafka自动创建的,默认50个,但是都存在一台kafka服务器上,这是不是就存在很明显的单点故障? 经测试,如果将存储__consumer_offsets的这台机器kill掉,所有的消费者都停止消费了。请问这个问题是怎么解决的呢?
原因分析:
由于__consumer_offsets这个用于存储offset的分区是由kafka服务器默认自动创建的,那么它在创建该分区的时候,分区数和副本数的依据是什么?
分区数是固定的50,这个没什么可怀疑的,副本数呢?应该是一个默认值1,依据是,如果我们没有在server.properties文件中指定topic分区的副本数的话,它的默认值就是1。
__consumer_offsets是一个非常重要的topic,我们怎么能允许它只有一个副本呢?这样就存在单点故障,也就是如果该分区所在的broker宕机了的话,我们的消费者就无法提交offset,无法正常消费数据了。
我在笔记本上搭建了kafka集群,共3个Broker,来解决这个问题。下面是一些记录。
说明: 如果你的__consumer_offsets这个topic已经被创建了,而且只存在一台broker上,如果你直接使用命令删除这个topic是会报错了,提示这是kafka内置的topic,禁止删除。可以在zookeeper中删除(我是使用ZooInspector这个客户端连上zookeeper,删除和__consumer_offsets这个topic有关的目录或节点)。
然后就是修改kafka的核心配置文件server.properties(三个broker都要改),默认是1
offsets.topic.replication.factor=3
更多推荐
所有评论(0)