虚拟机上安装

1、将spark-3.1.2-bin-hadoop3.2.zip安装包传到download
2、解压 tar -zxvf spark-3.1.2-bin-hadoop3.2.zip -C /opt/software/
3、改名:mv spark-3.1.2-bin-hadoop3.2 spark312
4、进入:cd conf
5、改名:mv spark-env.sh.template spark-env.sh
6、vim spark-env.sh
7、增加:

export SPARK_MASTER_HOST=你的用户名
export SPARK_MASTER_PORT=7077

8、进入:vim /etc/profile.d/myenv.sh
9、增加:

export HADOOP_CONF_DIR=/opt/software/hadoop313/etc/hadoop
export SPARK_HOME=/opt/software/spark312
export PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH

10、激活环境变量:source /etc/profile

检查是否完成

//客户端访问
spark-shell 本地模式
//启动集群测试
start-master.sh
start-worker.sh spark://你的用户名:7077

本地系统变量配置

HADOOP_HOME			D:\software\hadoop313
HADOOP_USER_NAME	root
JAVA_HOME			C:\Program Files\Java\jdk1.8.0_231
JRE_HOME			C:\Program Files\Java\jre1.8.0_231
SCALA_HOME			C:\Program Files (x86)\scala
Path				%JAVA_HOME%\bin;%JRE_HOME%\bin;%SCALA_HOME%\bin;%HADOOP_HOME%\bin;...
CLASSPATH			%JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\lib\tools.jar

创建maven工程

在这里插入图片描述
选择这个创建,在pom文件里设置scala版本为2.12.10
在这里插入图片描述

完成了!

Logo

华为开发者空间,是为全球开发者打造的专属开发空间,汇聚了华为优质开发资源及工具,致力于让每一位开发者拥有一台云主机,基于华为根生态开发、创新。

更多推荐