云计算 - 1 - 三虚拟机Hadoop的安装和配置
配置Hadoop云计算平台,包括NameNode和DataNode的设置。测试Hadoop平台的运行情况。
云计算 - 1 - 三虚拟机Hadoop的安装和配置
目标
配置Hadoop云计算平台,包括NameNode和DataNode的设置。
测试Hadoop平台的运行情况。
1、配置三台虚拟机的JDK和网络环境
1.1 首先三台虚拟机的javac均能通过
安装Java的教程可参考:Linux 使用yum安装Java
1.2 修改各虚拟机的地址使其不同:
2、修改并添加主机名
在主节点进行,后面会复制给另外两个节点。
使用vim /etc/hosts
打开hosts文件,在其中添加各个主机名和地址。
3、下载并解压hadoop
3.1 下载方式:
1、wegt 获取 tar 包:
wget http://mirrors.hust.edu.cn/apache/hadoop/core/stable/hadoop-2.7.1.tar.gz
2、百度网盘
链接:https://pan.baidu.com/s/1D2JeQsTb-ty4KDVWzaGKLg
提取码:98ud
3.2 解压
使用 tar 命令解压,注意修改 hadoop-xxx 后的版本号与自己的相同。
tar -zxvf hadoop-2.7.1.tar.gz
得到:
4、修改环境变量
使用vim ~/.bashrc
(也有的修改vim /etc/profile
),进入配置文件并添加:
export HADOOP_ HOME=/home/lucky/hadoop/hadoop-2.6.0
export HADOOP_ CONFIG_HOME= $HADOOP_ HOME/etc/hadoop
export PATH=$PATH: $HADOOP_HOME/bin
export PATH=$PATH: $HADOOP_HOME/sbin
注意修改路径和版本号与自己的一致。
5、修改hadoop配置文件
进入 hadoop 路径下的 etc 文件夹,修改以下几个文件。
5.1 配置 core-site.xml
5.2 配置 hdfs-site.xml
5.3 配置 mapred-site.xml
5.4 配置 hadoop-env.sh
5.5 配置 slaves
DataNode-1
DataNode-2
6、建立3个节点免密连接
6.1 修改节点名称
登陆每个节点,修改名字如hosts中配置的那样:
在主节点:vi /etc/hostname
,修改为 NameNode-1
登录节点1:
ssh 192.168.203.130
vi /etc/hostname
修改内容为:DataNode-1
然后exit
退出。
登录节点2:
ssh 192.168.203.131
vi /etc/hostname
修改内容为:DataNode-2
然后exit
退出。
6.2 将文件复制给两个datanode
将 hosts 及 bashrc 文件同步到 datanode1,datanode2 节点:
scp /etc/hosts/ root@10.10.12.112:/etc/hosts
scp /etc/hosts/ root@10.10.12.113:/etc/hosts
scp ~/.bashrc root@datanode1:~/.bashrc
scp ~/.bashrc root@datanode2:~/.bashrc
6.3 生成访问密钥,实现无密码访问
按照下述操作,生成访问秘钥 ssh-keygen -t rsa
,3台机器共享秘钥,可以无密码访问。
## 在主机生成密钥
ssh-keygen -t rsa (just input three enters)
## 在节点1生成密钥,发给主机
ssh DataNode-1
ssh-keygen -t rsa (just input three enters)
scp /root/.ssh/id_rsa.pub root@NameNode-1:/root/.ssh/id_rsa.pub.DataNode-1
## 在节点2生成密钥,发给主机
ssh DataNode-2
ssh-keygen -t rsa (just input three enters)
scp /root/.ssh/id_rsa.pub root@NameNode-1:/root/.ssh/id_rsa.pub.DataNode-2
## 回到主机,整合三个密钥,再发给两个节点。
ssh NameNode-1
cd /root/.ssh
cat id_rsa.pub >> authorized_keys
cat id_rsa.pub.DataNode-1 >> authorized_keys
cat id_rsa.pub.DataNode-2 >> authorized_keys
chmod 644 authorized_keys
scp ~/.ssh/authorized_keys root@DataNode-1:/root/.ssh/authorized_keys
scp ~/.ssh/authorized_keys root@DataNode-2:/root/.ssh/authorized_keys
6.4 测试链接
这里要关闭各个虚拟机的防火墙,否则可能会无法成功。
service iptables stop
然后分别使用
ssh DataNode-1
ssh DataNode-2
ssh NameNode-1
测试是否可以成功无密码访问。
7、启动hadoop
7.1 复制文件到节点
将主机配置好的 hadoop 和 jdk 发给另外两个节点。
scp -r /home/hadoop/ root@DataNode-1:/home/hadoop
scp -r /home/hadoop/ root@Datanode-2:/home/hadoop
scp -r /home/jdk/ root@DataNode-1:/home/jdk
scp -r /home/jdk/ root@DataNode-2:/home/jdk
7.2 格式化工作空间
使用cd $HADOOP_HOME
cd bin
进入bin目录下,然后使用hdfs namenode –format
格式化工作空间。
7.3 启动 hadoop
使用start-all.sh
启动程序
7.4 测试
查看 jps、hdfs dfsadmin -report 命令查看结果。
hdfs dfsadmin -report
jps
还可以使用:
hadoop fs -put aaa.txt /aaa.txt
hadoop fs -ls /
put文件进去并查看。
遇到的问题
刚开始时 DataNode 运行不起来,如下图所示:
后来查询相关资料得知,这是因为namenode和datanode的clusterID不一致导致的datanode无法启动,产生的原因是多次hdfs namenode -format,而每一次format都会产生新的clusterID,而datanode还保持原来的clusterID,导致二者不匹配。
解决的办法即是把datanode节点中的clusterID换成新的就好了,或者把namenode和datanode中上一次format的文件都给删除,重新format,二者的clusterID就又同步了。
更多推荐
所有评论(0)