1、切换到hadoop解压后所在文件夹
cd /opt/modules/hadoop-2.6.5
2、格式化
bin/hdfs namenode -format (不是每次开机都需要格式化)
3、启动进程
sbin/start-all.sh
4、输入jps检验所打开的进程
在这里插入图片描述
问题:
若因为多次格式化,而无法启动datanode,执行以下操作。
1、切换到name、data文件所在路径,可以通过查看hdfs-site.xml配置文件来确定文件路径。
在这里插入图片描述
2、切换到hadoop-2.6.5位置,ls查看所包含的文件夹
在这里插入图片描述
3、根据步骤一的路径,进入name、data文件夹
在这里插入图片描述
在name和data文件夹中都含有current,打开之后会发现VERSION
在这里插入图片描述
4、可以查看VERSION来了解clusterID
在这里插入图片描述
若name和data的VERSION所显示的clusterID不一致,则将导致datanode启动不了
5、切换路径至/dfs/name的上一层,在终端中执行删除指令,将/dfs 整个文件夹删除。

rm -r dfs

这个命令执行的话,系统会一直询问是否删除,大概要回复好几屏的问题,所以还是选择强制删除更痛快一些。

rm -rf dfs

在这里插入图片描述
6、然后重新格式化,再重复开机后的命令就可以了,jps后发现进程可以启动了。

Logo

华为开发者空间,是为全球开发者打造的专属开发空间,汇聚了华为优质开发资源及工具,致力于让每一位开发者拥有一台云主机,基于华为根生态开发、创新。

更多推荐