【Spark入门】搭建Spark单节点本地运行环境

2018-05-30  本文已影响37人  程序员Anthony

搭建步骤

使用的系统是macOS,搭建步骤如下:

scala> val textFile = sc.textFile(“README.md”)
scala> textFile.count()
scala> textFile.first()
scala> val linesWithSpark = textFile.filter(line => line.contains(“Spark”))
scala> textFile.filter(line => line.contains(“Spark”)).count()

运行spark-shell 并操作

Spark 编程的核心概念:通过一个驱动器程序创建一个 SparkContext 和一系列 RDD,然后进行并行操作。

首先需要安装sbt,sbt之于Scala就像Maven之于Java,用于管理项目依赖,构建项目。macOS只需要执行brew install sbt即可安装完成。


参考资料

搭建Spark单节点本地运行环境
Quick Start Spark

上一篇下一篇

猜你喜欢

热点阅读