Spark-core:执行Spark任务的两个工具:spark-
2020-05-17 本文已影响0人
Movle
1.spark-submit:用于提交Spark任务
(1)举例:spark 自带的实例程序。
/opt/module/spark-2.1.0-bin-hadoop2.7/examples/jars中有Spark自带的实例程序。
蒙特卡洛求PI(圆周率)
cd /opt/module/spark-2.1.0-bin-hadoop2.7
bin/spark-submit --master spark://hadoop1:7077 --class org.apache.spark.examples.SparkPi /opt/module/spark-2.1.0-bin-hadoop2.7/examples/jars/spark-examples_2.11-2.1.0.jar 500
![](https://img.haomeiwen.com/i4391407/389af0a0f02e9efa.png)
![](https://img.haomeiwen.com/i4391407/1e023c0e4da7dc65.png)
2.Spark-shell
(1)概念:相当于REPL工具,命令行工具,作为一个独立的Application运行
(2)两种运行模式:
(a)本地模式:不需要连接到Spark集群,在本地直接运行,用于测试
启动:
//后面不写任何参数,代表本地模式
bin/spark-shell
![](https://img.haomeiwen.com/i4391407/16c7c899974315ee.png)
local代表本地模式
(b)集群模式
命令:
bin/spark-shell --master spark://hadoop1:7077
![](https://img.haomeiwen.com/i4391407/13c0b750b9484ded.png)
特殊说明:
- Spark session(spark) : Spark2.0以后提供的,利用session可以访问所有spark组件(core sql..)
- spark context(sc) 两个对象,可以直接使用