Vmware搭建hadoop集群(三)
配置虚拟机网络查看网关子网IP查看本地vmnet8配置不一致时需要将虚拟机的网络配置与本地的一致配置虚拟机静态ip进入虚拟机打开terminal,输入 ifconfig,查看默认网卡编辑ifcfg-ens33修改如下IPADDR=192.168.52.10NETMAST=255.255.255.0GATEWAY=192.168.52.2DNS1=8.8.8.8重启再次查看IP使用xshell连接连
配置虚拟机网络
查看网关子网IP
查看本地vmnet8配置
不一致时需要将虚拟机的网络配置与本地的一致
配置虚拟机静态ip
进入虚拟机打开terminal,
输入 ifconfig,查看默认网卡
编辑ifcfg-ens33
修改如下
IPADDR=192.168.52.10
NETMAST=255.255.255.0
GATEWAY=192.168.52.2
DNS1=8.8.8.8
重启
再次查看IP
使用xshell连接
连接成功
配置主机名称及映射
主机名称
vim /etc/hostname
hosts文件
192.168.52.10 master
192.168.52.11 slave1
192.168.52.12 slave2
vim /etc/hosts
关闭防火墙
vim /etc/selinux/config
关闭防火墙:systemctl stop firewalld
查看状态 systemctl status firewalld
安装JDK和hadoop
在 /usr下新建java和hadoop目录
mkdir java
mkdir hadoop
打开ftp上传java安装包和hadoop包
解压
在/usr/java 下
tar zvxf jdk-8u162-linux-x64.tar.gz
在/usr/hadoop 下
配置环境变量
在/etc/profile文件里添加jdk路径和hadoop路径
vim /etc/profile
export JAVA_HOME=/usr/java/jdk1.8.0_162/
export PATH= J A V A H O M E / b i n : JAVA_HOME/bin: JAVAHOME/bin:PATH
export CLASSPATH=.: J A V A H O M E / l i b / d t . j a r : JAVA_HOME/lib/dt.jar: JAVAHOME/lib/dt.jar:JAVA_HOME/lib/tools.jar
export JER_HOME=$JAVA_HOME/jre
export HADOOP_HOME=/usr/hadoop/hadoop-3.1.3
export PATH=
J
A
V
A
H
O
M
E
/
b
i
n
:
JAVA_HOME/bin:
JAVAHOME/bin:PATH:$HADOOP_HOME/bin
source /etc/ profile
java -vserion
Hadoop配置
在/usr/hadoop/hadoop-3.1.3下新建文件夹
mkdir -p dfs/name
mkdir -p dfs/data
mkdir temp
配置/usr/hadoop/hadoop-3.1.3/etc/hadoop/目录下的七个文件
workes core-site.xml hdfs-site.xml mapred-site.xml yarn-site.xml hadoop-env.sh yarn-env.sh
workes
master
slave1
slave2
core-site.xml
fs.defaultFS
hdfs://master:9000
io.file.buffer.size
131072
hadoop.tmp.dir
file:/usr/hadoop/hadoop-3.1.3/temp
hadoop.proxyuser.hduser.hosts
*
hadoop.proxyuser.hduser.groups
*
hdfs-site.xml
dfs.namenode.secondary.http-address
master:9001
dfs.namenode.name.dir
file:/usr/hadoop/hadoop-3.1.3/dfs/name
dfs.datanode.data.dir
file:/usr/hadoop/hadoop-3.1.3/dfs/data
dfs.replication
3
dfs.webhdfs.enabledtrue
mapred-site.xml
mapreduce.framework.name
yarn
mapreduce.jobhistory.address
master:10020
mapreduce.jobhistory.webapp.address
master:19888
yarn-site.xml
yarn.resourcemanager.hostname
master
yarn.nodemanager.aux-services
mapreduce_shuffle
hadoop-env.sh
export JAVA_HOME=/usr/java/jdk1.8.0_162/
yarn-env.sh
if [ “$JAVA_HOME” != “” ]; then
JAVA_HOME=/usr/java/jdk1.8.0_162/
fi
虚拟机克隆
停止master虚拟机后进行克隆
同理克隆salve2
修改IP
将ip修改为slave1: 192.168.0.11 slave2 :192.168.0.12
重启
修改hostname,重启克隆机
配置ssh免密登录
三台虚拟机上
在root用户下输入ssh-keygen -t rsa 一路回车就行
先将三台公钥复制到master的authorized_keys
将公钥复制到slave1和slave2上
第一次登陆需要 输入yes确认 ,在三台机器上尝试登陆
运行hadoop
格式化Namenode
./bin/hdfs namenode -format
添加参数
在/hadoop/sbin路径下:
将start-dfs.sh,stop-dfs.sh两个文件顶部添加以下参数
#!/usr/bin/env bash
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
还有,start-yarn.sh,stop-yarn.sh顶部也需添加以下:
#!/usr/bin/env bash
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
启动hadoop
./sbin/start-all.sh
in/env bash
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
[外链图片转存中…(img-vEak1s58-1647919498100)]
还有,start-yarn.sh,stop-yarn.sh顶部也需添加以下:
#!/usr/bin/env bash
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
[外链图片转存中…(img-olTV5QLa-1647919498102)]
启动hadoop
./sbin/start-all.sh
更多推荐
所有评论(0)