第一、通过xftp工具将spark安装包上传到linux上

第二、解压spark到指定目录:

tar -zxf /opt/software/spark-2.1.0-bin-hadoop2.7.tgz -C /opt/module/

第三、配置

1、在spark安装路径配置spark-env.sh,我的路径是/opt/module/spark-2.1.0-bin-hadoop2.7/conf

输入命令:vi spark-env.sh,如下

export JAVA_HOME=/root/training/jdk1.7.0_75(填自己的java_home配置路径)

export SPARK_MASTER_HOST=bigdata111(填自己的主节点)

export SPARK_MASTER_PORT=7077

00aa5d5377fafa19e1227f92f46320ed.png

2、在conf文件夹下配置slaves文件,

先输入命令:cp slaves.template slaves

再输入命令:vi slaves

然后添加自己的节点域名

我的是:bigdata111

cccbe0e346acdbf46bc44665080404fe.png

8491871a60a5aa9b0c9fe156ff64a6ef.png

3.在sbin文件夹下用命令./start-all.sh启动spark,用jps命令查看进程

5b1af8134813062344ae80fbf5e580a0.png

4.进入bin文件夹下,输入./spark-shell --master spark://bigdata111:7077,显示如下,则表示spark的伪分布式搭建成功

818bb52ecedd06441735346dd32edc7f.png

5.配置完全分布式环境,首先修改conf文件夹下的slaves文件,我的是添加

bigdata111

bigdata112

bigdata113

482dec409fe3d28223e74ccea9b8b326.png

311a7d7db2b617a25bc8b2d4af6bc782.png

6.将配置好的虚拟机的配置信息复制到其他虚拟机的同名目录下

scp -r spark-2.1.0-bin-hadoop2.7/ root@bigdata112:/opt/module/

e99759ca11e75361f71460736c91fac4.png

7.在sbin文件夹下用命令./start-all.sh启动spark,用jps命令查看进程,也可以在浏览器上查看:

输入主节点:8080,显示如下,则表示spark完全分布式搭建成功。

ae236925e530960fe34cef3b575f913b.png

Logo

为开发者提供学习成长、分享交流、生态实践、资源工具等服务,帮助开发者快速成长。

更多推荐