flink学习(一)本地(local)模式和集群(standalone)模式
目录本地模式(local)搭建下载flink安装包上传至虚拟机并解压配置环境变量启动flink并测试集群(standalone)模式搭建配置flink-conf.yaml和workers文件flink-conf.yaml文件workers文件masters文件分发集群启动flink集群启动jps查看进程UI界面查看测试集群本地模式(local)搭建下载flink安装包https://downloa
目录
本地模式(local)搭建
下载flink安装包
https://downloads.apache.org/flink/flink-1.12.2/flink-1.12.2-bin-scala_2.11.tgz
上传至虚拟机并解压
[root@master1 flink]# tar -xzvf flink-1.12.2-bin-scala_2.11.tgz
配置环境变量
配置环境变量是为了更好的操作命令
刷新权限
source /etc/profile
启动flink并测试
[root@master1 flink-1.12.2]# start-scala-shell.sh local
其中两端分别为批处理的示例和流式处理的示例
准备一份测试文档
测试结果
测试一下本地能否运行
创建一份test.txt
[root@master1 batch]# flink run WordCount.jar --input /root/test.txt --output /root/test/output/
集群(standalone)模式搭建
配置flink-conf.yaml和workers文件
!!!如果是使用HA集群其中的masters文件还需要配置
flink-conf.yaml文件
配置历史服务器
在环境变量中加入Hadoop配置文件的信息
由于flink集群的CLASS_PATH下缺少了 HDFS相关的jar会导致historyserver启动不起来
点击下面链接将所需的jar下载并上传至flink的lib文件夹下就行
https://repo.maven.apache.org/maven2/org/apache/flink/flink-shaded-hadoop2-uber/2.6.5-1.8.0/
workers文件
masters文件
分发集群
刷新权限
有安装scala的话把它注释了,避免麻烦
没有的话跳过这个步骤
启动flink集群
启动
启动命令:start-cluster.sh
jps查看进程
master1上有两个进程
slave1,2上有一个进程
测试集群
hdfs上测试
[root@master1 batch]# flink run WordCount.jar --input hdfs://master1:9000/test/test.txt --output hdfs://master1:9000/test/output/result.txt
master1:8081页面
!!!碰到的坑
不知道有-和没-有啥区别,我一开始用有-的怎么都不能运行flink的jar包,换成没-就运行有点懵不知道为什么
HadoopHA的问题,master1是standby状态,在flink上指定的是master1但是它是宕机状态,所以不能运行wordcount的jar包
更多推荐
所有评论(0)