Spark的共享变量

Spark程序的大部分操作都是RDD操作,通过传入函数给RDD操作函数来计算。这些函数在不同的节点上并发执行,内部的变量有不同的作用域,不能相互访问,有些情况下不太方便,所以Spark提供了两类共享变量供编程使用——广播变量和计数器。

1. 广播变量

这是一个只读对象,在所有节点上都有一份缓存,创建方法是SparkContext.broadcast(),比如:

scala> val broadcastVar = sc.broadcast(Array(1, 2, 3))
broadcastVar: org.apache.spark.broadcast.Broadcast[Array[Int]] = Broadcast(0)
scala> broadcastVar.value
res0: Array[Int] = Array(1, 2, 3)

注意,广播变量是只读的,所以创建之后再更新它的值是没有意义的,一般用val修饰符来定义广播变量。

2. 计数器

计数器只能增加,可以用于计数或求和,默认是数值型,支持自定义类型。在Web界面上,也可以看到计数器共享变量。

计数器变量的创建方法是SparkContext.accumulator(v, name),其中v是初始值,name是名称。注意,只有Driver程序可以读这个计算器变量,RDD操作中读取计数器变量是无意义的。

示例如下:

scala> val accum = sc.accumulator(0, "My Accumulator")
accum: org.apache.spark.Accumulator[Int] = 0
scala> sc.parallelize(Array(1, 2, 3, 4)).foreach(x => accum += x)
...
17/01/22 17:57:51 INFO DAGScheduler: Job 0 finished: foreach at <console>:24, took 0.649155 s
scala> accum.value
res1: Int = 10
  • Spark的共享变量已关闭评论
  • 133 views
  • A+
所属分类:未分类
avatar