大数据,机器学习,人工智能

Spark入门教程(六)弹性分布式数据集Rdd的Action操作

2018-02-20  本文已影响0人  胖滚猪学编程

本文全部手写原创,请勿复制粘贴、转载请注明出处,谢谢配合!

Action操作和Transformation操作的区别


Action操作常用函数


scala> val rdd = sc.parallelize(1 to 10)
rdd: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[51] at parallelize at <console>:24

scala> rdd.reduce(_+_)
res25: Int = 55

scala> rdd.count()
res26: Long = 10

scala> rdd.first()
res27: Int = 1

scala> rdd.collect()
res28: Array[Int] = Array(1, 2, 3, 4, 5, 6, 7, 8, 9, 10)

scala> rdd.take(5)
res29: Array[Int] = Array(1, 2, 3, 4, 5)
scala> val rdd = sc.parallelize(List(("spark",3),("spark",2),("hello",2)))
rdd: org.apache.spark.rdd.RDD[(String, Int)] = ParallelCollectionRDD[56] at parallelize at <console>:24

scala> rdd.countByKey()
res40: scala.collection.Map[String,Long] = Map(spark -> 2, hello -> 1)

def aggregate[U](zeroValue: U)(seqOp: (U, T) ⇒ U, combOp: (U, U) ⇒ U)(implicit arg0: ClassTag[U]): U

意思是说,对于每个分区的元素,进行某种操作seqOp: (U, T) ⇒ U,然后聚合这些分区的元素,combOp: (U, U) ⇒ U,(zeroValue: U)是一个初始值。看案例解释比较清楚:

scala> val rdd = sc.parallelize(1 to 10,2)
rdd: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[49] at parallelize at <console>:24

scala> rdd.aggregate(1)((x,y)=>x+y,(a,b)=>(a*b))
res23: Int = 656

1,2,3,4,5,6,7,8,9,10分成了两个区

分区一:1,2,3,4,5 进行(x,y)=>x+y 注意有初始值1 即1+1+2+3+4+5=16

分区二:6,7,8,9,10 进行(x,y)=>x+y 注意有初始值1 即 1+6+7+8+9+10=41

对这两个分区的结果16和41 进行(a,b)=>ab 即1641=656

更多函数请参考spark API,看API永远是最好的学习方式没有之一。

上一篇 下一篇

猜你喜欢

热点阅读