SparkStreaming有状态算子updateStateByKey
updateStateByKeyupdateStateByKey与reduceByKey代码实现updateStateByKeyupdateStateByKey与reduceByKey代码实现updateStateByKey虚拟机端:nc -lk 8888 用于测试代码在IDEA中运行,从虚拟机nc -lk 8888指令的命令行中接收数据package sparkstreamingimport o
·
updateStateByKey
updateStateByKey与reduceByKey
代码实现updateStateByKey
虚拟机端:nc -lk 8888 用于测试
代码在IDEA中运行,从虚拟机nc -lk 8888指令的命令行中接收数据
package sparkstreaming
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.streaming.{Durations, StreamingContext}
import org.apache.spark.streaming.dstream.{DStream, ReceiverInputDStream}
object Demo2UpdateStateByKey {
def main(args: Array[String]): Unit = {
val conf: SparkConf = new SparkConf()
conf.setMaster("local[2]")
conf.setAppName("Demo1")
val sc: SparkContext = new SparkContext(conf)
/**
*创建SparkStreaming环境
* 指定多久运行一次
*/
val ssc: StreamingContext = new StreamingContext(sc, Durations.seconds(5))
/**
* 设置checkpoint路径
*/
ssc.checkpoint("SparkLearning/src/main/data/checkpoint")
/**
* 读取数据
* 读取socket数据
* nc -lk 8888用于测试
*
*/
val linesDS: ReceiverInputDStream[String] = ssc.socketTextStream("master", 8888)
val words: DStream[String] = linesDS.flatMap(_.split(","))
val kvDS: DStream[(String, Int)] = words.map((_,1))
/**
* 有状态算子
*
* 需要设置checkpoint,用于保存之前的计算状态
*/
/**
* 更新函数:使用当前batch的数据去更新之前的计算结果,返回一个新的结果
*
* seq:当前batch一个单词所有的value
* option:之前一个单词的计算结果(状态),使用option的原因是 如果是第一次计算后没有结果,那就是NONE
*/
val updateFun = (seq:Seq[Int],opt:Option[Int]) =>{
//计算当前batch
val currCount: Int = seq.sum
//获取之前的计算结果
val befCount: Int = opt.getOrElse(0)
//最新一个单词的数量
val newCount = currCount + befCount
//返回Option
Option(newCount)
}
//reduceBykey:每次只统计当前batch的数据,不能实现累加
val countDS: DStream[(String, Int)] = kvDS.updateStateByKey(updateFun)
countDS.print()
ssc.start()
ssc.awaitTermination()
ssc.stop()
}
}
更多推荐
已为社区贡献4条内容
所有评论(0)