问题:克隆虚拟机,配置hadoop完全分布式。每台机器都配置完静态ip,主机名,主机和ip映射。开启hadoop集群,(start-dfs.sh),master主机上namenode和secondarynamenode,slave1主机上的datanode,slave2主机上的slave2主机上的datanode都开启了,但是在master:50070网址上live node 只有一个,这个node 是随机的,有时候是slave1,有时候是slave2。

原因:因为slave1和slave2都是通过master克隆过来的,slave1和slave2上的tmp内的dfs/data文件夹的内容相同,当开启hadoop时,slave1和slave3会竞争资源,所以,开启hadoop有时只开启slave1,有时只开启slave2。
解决:将slave1和slave2内的tmp目录下的dfs文件夹删掉,再把master主机上的tmp目录下的dfs文件夹删掉,重新格式化namenode: hdfs namenode -format。这样之后开启hadoop集群时,从节点上的datanode都会开启,并且都会加载到master上。
Logo

华为开发者空间,是为全球开发者打造的专属开发空间,汇聚了华为优质开发资源及工具,致力于让每一位开发者拥有一台云主机,基于华为根生态开发、创新。

更多推荐