Spark-GraphX
概要
GraphX是Spark的一个新模块,该模块用于图和图并行计算。在更高的层面上,GraphX通过引入一种新的图抽象—一个顶点和边均附有属性的有向多图—对Spark RDD进行了扩展。为支持图计算,GraphX提供了一系列基本操作和一个优化的Pregel API变体。此外,为了简化图分析工作,GraphX也囊括了越来越多的图算法和构造器。
由Spark1.1上迁移
在Spark 1.5.0中GraphX有一些新的面向用户的API的变动。
1.为提升性能,我们引入了叫做aggreateMessages的对象,它是mapReduceTriplets的一个新版本。该对象通过调用(EdgeContext)得到原先由mapReduceTriplets返回值来得到的消息。我们将不推荐mapReduceTriplets并鼓励用户查询变迁指南。
2.在Spark1.0和1.1中,EdgeRDD的类型签名由EdgeRDD[ED]转换为EdgeRDD[ED,VD]从而使缓存得到优化。我们已经发现了一个更优雅的方法并且将类型签名恢复为更自然的EdgeRDD[ED]类型。
开始
你首先要做的是将Spark和GraphX导入你的工程中,如下所示:
import org.apache.spark._
import org.apache.spark.graphx._
import org.apache.spark.rdd.RDD
如果你使用的不是Spark shell,你还需要SparkContext。了解更多的关于Spark的入门内容,请参考Spark 快速入门指南
图构造器
GraphX提供了几种由RDD或磁盘上的顶点和边构建图的方法。构造器默认不对图的边进行重分区,反而是将边留在它们的默认分区中(如在HDFS上原来的分块中)。Graph.groupEdges需要对图进行重分区,因为它假设同一条边位于同一分区中,因此你必须在调用groupEdges前调用Graph.partitionBy。
object GraphLoader{
def edgeListFile(
sc: SparkContext,
path: String,
canonicalOrientation:Boolean=false,
minEdgePartirions:Int = 1)
:Graph[Int, Int]
}
GraphLoader.edgeListFile提供了一种由存储在磁盘上的一系列边加载图的方法。它能由如下形式的(源节点,目标节点)解析得到连接关系,以#开头的是注释行。
#This is a comment
2 1
4 1
1 2
它由特定的边产生图,自动生成边中涉及的顶点。所有边和顶点的属性默认为1。参数canonicalOrientation允许以正方向重新设置边的方向,在连接单元算法中需要设置该参数的值。参数minEdgePartitions指定要产生的边分区的最小数目;如HDFS文件有更多的分块,则边分区可以比指定数目多。
object Graph {
def apply[VD, ED](
vertices: RDD[(VertexId, VD)],
edges: RDD[Edge[ED]], defaultVertexAttr: VD = null)
: Graph[VD, ED]
def fromEdges[VD, ED](
edges: RDD[Edge[ED]],
defaultValue: VD)
: Graph[VD, ED]
def fromEdgeTuples[VD](
rawEdges: RDD[(VertexId, VertexId)],
defaultValue: VD,
uniqueEdges: Option[PartitionStrategy] = None)
: Graph[VD, Int]}
Graph.apply允许由点顶点和边的RDD生成图。重复的顶点直接挑出来且顶点是在边RDD中寻找而不是在顶点RDD中的顶点赋值默认的属性值。
Graph.fromEdges允许仅由边的RDD生成图,而自动生成所有涉及的顶点并赋予默认值。
Graph.fromEdgeTuples允许仅由边元组中生成图,边赋值为1。同时自动生成所有涉及的顶点并赋默认值。它也支持边的去重操作;为了去重,给uniqueEdges参数传递一个PartitionStrategy的Some的值。为了使同一条边在相同的分区,分区策略对于去重的是必要的