配置虚拟机网络

https://img-blog.csdnimg.cn/5c4bf05784264490b9e79b34e267a970.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBAY3l3X2dvZm9ySVQ=,size_13,color_FFFFFF,t_70,g_se,x_16

查看网关子网IP

在这里插入图片描述

查看本地vmnet8配置

img

在这里插入图片描述

不一致时需要将虚拟机的网络配置与本地的一致

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-h0tX4OU4-1647919498041)(C:\Users\cyw\AppData\Local\Temp\msohtmlclip1\01\clip_image009.jpg)]

配置虚拟机静态ip

进入虚拟机打开terminal,

img

输入 ifconfig,查看默认网卡

img

编辑ifcfg-ens33

img

修改如下

img

IPADDR=192.168.52.10

NETMAST=255.255.255.0

GATEWAY=192.168.52.2

DNS1=8.8.8.8

img

重启

img

再次查看IP

img

使用xshell连接

在这里插入图片描述

连接成功

在这里插入图片描述

配置主机名称及映射

主机名称

vim /etc/hostname

img

img

hosts文件

192.168.52.10 master

192.168.52.11 slave1

192.168.52.12 slave2

vim /etc/hosts

img

img

关闭防火墙

vim /etc/selinux/config

在这里插入图片描述

img

关闭防火墙:systemctl stop firewalld

查看状态 systemctl status firewalld

在这里插入图片描述

安装JDK和hadoop

在 /usr下新建java和hadoop目录

mkdir java

img

mkdir hadoop

打开ftp上传java安装包和hadoop包

在这里插入图片描述

img
在这里插入图片描述

解压

在/usr/java 下

tar zvxf jdk-8u162-linux-x64.tar.gz

img

img

在/usr/hadoop 下

img

img

配置环境变量

在/etc/profile文件里添加jdk路径和hadoop路径

vim /etc/profile

export JAVA_HOME=/usr/java/jdk1.8.0_162/

export PATH= J A V A H O M E / b i n : JAVA_HOME/bin: JAVAHOME/bin:PATH

export CLASSPATH=.: J A V A H O M E / l i b / d t . j a r : JAVA_HOME/lib/dt.jar: JAVAHOME/lib/dt.jar:JAVA_HOME/lib/tools.jar

export JER_HOME=$JAVA_HOME/jre

export HADOOP_HOME=/usr/hadoop/hadoop-3.1.3

export PATH= J A V A H O M E / b i n : JAVA_HOME/bin: JAVAHOME/bin:PATH:$HADOOP_HOME/bin
在这里插入图片描述

source /etc/ profile

在这里插入图片描述

java -vserion

img

Hadoop配置

在/usr/hadoop/hadoop-3.1.3下新建文件夹

mkdir -p dfs/name

mkdir -p dfs/data

mkdir temp

img

配置/usr/hadoop/hadoop-3.1.3/etc/hadoop/目录下的七个文件

workes core-site.xml hdfs-site.xml mapred-site.xml yarn-site.xml hadoop-env.sh yarn-env.sh

在这里插入图片描述

workes

master

slave1

slave2

img

core-site.xml

​ fs.defaultFS

​ hdfs://master:9000

​ io.file.buffer.size

​ 131072

​ hadoop.tmp.dir

​ file:/usr/hadoop/hadoop-3.1.3/temp

​ hadoop.proxyuser.hduser.hosts

​ *

​ hadoop.proxyuser.hduser.groups

​ *

在这里插入图片描述

hdfs-site.xml

​ dfs.namenode.secondary.http-address

​ master:9001

​ dfs.namenode.name.dir

​ file:/usr/hadoop/hadoop-3.1.3/dfs/name

​ dfs.datanode.data.dir

​ file:/usr/hadoop/hadoop-3.1.3/dfs/data

​ dfs.replication

​ 3

​ dfs.webhdfs.enabledtrue

在这里插入图片描述

mapred-site.xml

​ mapreduce.framework.name

​ yarn

​ mapreduce.jobhistory.address

​ master:10020

​ mapreduce.jobhistory.webapp.address

​ master:19888

在这里插入图片描述

yarn-site.xml

​ yarn.resourcemanager.hostname

​ master

​ yarn.nodemanager.aux-services

​ mapreduce_shuffle

img

hadoop-env.sh

export JAVA_HOME=/usr/java/jdk1.8.0_162/

在这里插入图片描述

yarn-env.sh

if [ “$JAVA_HOME” != “” ]; then

JAVA_HOME=/usr/java/jdk1.8.0_162/

fi

在这里插入图片描述

虚拟机克隆

停止master虚拟机后进行克隆

img

img

img

img

img

img

同理克隆salve2

修改IP

将ip修改为slave1: 192.168.0.11 slave2 :192.168.0.12

在这里插入图片描述

重启

在这里插入图片描述

修改hostname,重启克隆机

img

在这里插入图片描述

配置ssh免密登录

三台虚拟机上

在root用户下输入ssh-keygen -t rsa 一路回车就行

img

在这里插入图片描述

先将三台公钥复制到master的authorized_keys

在这里插入图片描述

img
在这里插入图片描述

img

将公钥复制到slave1和slave2上

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-qc2a5CPB-1647919498096)(C:\Users\cyw\AppData\Local\Temp\msohtmlclip1\01\clip_image106.jpg)]

第一次登陆需要 输入yes确认 ,在三台机器上尝试登陆

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Ye5Xi3QD-1647919498097)(C:\Users\cyw\AppData\Local\Temp\msohtmlclip1\01\clip_image108.jpg)]

运行hadoop

格式化Namenode

./bin/hdfs namenode -format

img

img

添加参数

在/hadoop/sbin路径下:

将start-dfs.sh,stop-dfs.sh两个文件顶部添加以下参数

#!/usr/bin/env bash

HDFS_DATANODE_USER=root

HADOOP_SECURE_DN_USER=hdfs

HDFS_NAMENODE_USER=root

HDFS_SECONDARYNAMENODE_USER=root

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-vEak1s58-1647919498100)(C:\Users\cyw\AppData\Local\Temp\msohtmlclip1\01\clip_image114.jpg)]

还有,start-yarn.sh,stop-yarn.sh顶部也需添加以下:

#!/usr/bin/env bash

YARN_RESOURCEMANAGER_USER=root

HADOOP_SECURE_DN_USER=yarn

YARN_NODEMANAGER_USER=root

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-olTV5QLa-1647919498102)(C:\Users\cyw\AppData\Local\Temp\msohtmlclip1\01\clip_image116.jpg)]

启动hadoop

./sbin/start-all.sh

img

in/env bash

HDFS_DATANODE_USER=root

HADOOP_SECURE_DN_USER=hdfs

HDFS_NAMENODE_USER=root

HDFS_SECONDARYNAMENODE_USER=root

[外链图片转存中…(img-vEak1s58-1647919498100)]

还有,start-yarn.sh,stop-yarn.sh顶部也需添加以下:

#!/usr/bin/env bash

YARN_RESOURCEMANAGER_USER=root

HADOOP_SECURE_DN_USER=yarn

YARN_NODEMANAGER_USER=root

[外链图片转存中…(img-olTV5QLa-1647919498102)]

启动hadoop

./sbin/start-all.sh

在这里插入图片描述

img

Logo

华为开发者空间,是为全球开发者打造的专属开发空间,汇聚了华为优质开发资源及工具,致力于让每一位开发者拥有一台云主机,基于华为根生态开发、创新。

更多推荐