updateStateByKey与reduceByKey

在这里插入图片描述

代码实现updateStateByKey

虚拟机端:nc -lk 8888 用于测试
代码在IDEA中运行,从虚拟机nc -lk 8888指令的命令行中接收数据

package sparkstreaming

import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.streaming.{Durations, StreamingContext}
import org.apache.spark.streaming.dstream.{DStream, ReceiverInputDStream}

object Demo2UpdateStateByKey {
  def main(args: Array[String]): Unit = {

  val conf: SparkConf = new SparkConf()
  conf.setMaster("local[2]")
  conf.setAppName("Demo1")

  val sc: SparkContext = new SparkContext(conf)

  /**
    *创建SparkStreaming环境
    * 指定多久运行一次
    */
  val ssc: StreamingContext = new StreamingContext(sc, Durations.seconds(5))

    /**
      * 设置checkpoint路径
      */
    ssc.checkpoint("SparkLearning/src/main/data/checkpoint")

    /**
    * 读取数据
    * 读取socket数据
    * nc -lk 8888用于测试
    *
    */
  val linesDS: ReceiverInputDStream[String] = ssc.socketTextStream("master", 8888)

  val words: DStream[String] = linesDS.flatMap(_.split(","))

  val kvDS: DStream[(String, Int)] = words.map((_,1))

  /**
    * 有状态算子
    *
    * 需要设置checkpoint,用于保存之前的计算状态
    */
  /**
    * 更新函数:使用当前batch的数据去更新之前的计算结果,返回一个新的结果
    *
    * seq:当前batch一个单词所有的value
    * option:之前一个单词的计算结果(状态),使用option的原因是 如果是第一次计算后没有结果,那就是NONE
    */
  val updateFun = (seq:Seq[Int],opt:Option[Int]) =>{

    //计算当前batch
    val currCount: Int = seq.sum

    //获取之前的计算结果
    val befCount: Int = opt.getOrElse(0)

    //最新一个单词的数量
    val newCount = currCount + befCount

    //返回Option
    Option(newCount)

  }

  //reduceBykey:每次只统计当前batch的数据,不能实现累加
  val countDS: DStream[(String, Int)] = kvDS.updateStateByKey(updateFun)

  countDS.print()

  ssc.start()
  ssc.awaitTermination()
  ssc.stop()

  }
}
Logo

华为开发者空间,是为全球开发者打造的专属开发空间,汇聚了华为优质开发资源及工具,致力于让每一位开发者拥有一台云主机,基于华为根生态开发、创新。

更多推荐