Kafka 集群无法启动
注:1. CentOS6、Kafka-2.11-0.11.0.02.下面的路径都以进入 Kafka 应用的首页为当前路径。一、问题的出现通过电脑的任务管理器查看内存使用情况,发现启动的虚拟机占用了太多闲置内存,此时的虚拟机开启的只有 Zookeeper 集群和 Kafka集群,然后在虚拟机(VMware Workstation Pro)窗口查看各节点的内存占用情况,发现占用过大(2.5G),然后关
注:1. CentOS6、Kafka-2.11-0.11.0.0
2.下面的路径都以进入 Kafka 应用的首页为当前路径。
一、问题的出现
通过电脑的任务管理器查看内存使用情况,发现启动的虚拟机占用了太多闲置内存,此时的虚拟机开启的只有 Zookeeper 集群和 Kafka集群,然后在虚拟机(VMware Workstation Pro)窗口查看各节点的内存占用情况,发现占用过大(2.5G),然后关闭虚拟机降低了内存占用,重新开启虚拟机,但是Kafka 集群始终只有主节点可以开启,其他的执行开启命令无效。
二、查找问题根源
在这里要说的一条是,遇到问题首先做的是查看日志文件。
刚开始由于疏忽,以为辅节点和主节点的配置不同,所以对主节点的 Kafka 文件进行的 scp -r 的操作(文件分发),只修改了各个节点的 ./config/server.properties 文件中的 broker.id,然后直接启动,还是无法启动。
之后才查看了日志文件 kafkaServer.out,在里边发现如下图:
大致意思是:如果你移动了 data(目录)且确定你配置的 broker.id 匹配,在 meta.properties 文件中的 broker.id=2 和 broker.id=0 不匹配。如果你创建了新的 broker 节点,则需要删除 logDir 配置(./config/server.properties 中)的对应的所有数据,即 log 目录。
三、问题的解决
然后我找到 meta.properties 文件的路径(./data/meta.properties)并修改 broker.id=0 为 broker.id=2,其他节点也进行了修改(如果节点为新添加的节点,则需要删除 log 目录后进行启动),之后将 log 文件中的集群正常启动。
总结:出现错误,首先查看的是日志文件中的信息,而不是凭借经验去进行差错!
更多推荐
所有评论(0)