程序员大数据,机器学习,人工智能

Spark入门教程(二)Spark2.2源码编译及安装配置

2018-02-19  本文已影响0人  胖滚猪学编程

本文全部手写原创,请勿复制粘贴、转载请注明出处,谢谢配合!

Spark2.2源码下载


点此进入官网下载地址: 下载Spark

spark官网下载截图
//下载好后用传输工具传输到我们的linux上并解压缩
tar -zxvf spark-2.2.0.tgz

源码编译


准备工作

根据Spark官方文档可知,需要java8+,maven 3.3.9+版本


spark编译需知
确认jave8.0已成功安装
检验java是否成功安装
确认Maven3.3.9已成功安装
检验maven是否成功安装

如果不知道如何安装,参考如下步骤:
(1)点此下载maven
(2)解压缩:
tar -zxvf apache-maven-3.3.9-bin.tar.gz
(3)配置环境变量:
vim /etc/profile
export MAVEN_HOME=/usr/local/apache-maven-3.3.9
//根据机器配置为maven分配尽可能多的内存,可以使得编译更加快速
export MAVEN_OPTS="-Xmx2g -XX:ReservedCodeCacheSize=1024m"
export PATH=$JAVA_HOME/bin:$MAVEN_HOME/bin:$PATH
//最后不要忘记source命令使得配置立即生效
source /etc/profile

确认机器能够链接外网

vim /etc/resolv.conf
namserver 8.8.8.8 nameserver 8.8.4.4
//检验是否成功链接外网
ping www.baidu.com

开始编译


cd /usr/local/spark-2.2.0
./dev/make-distribution.sh --name custom-spark --tgz -Phadoop-2.6 -Phive -Phive-thriftserver -Pyarn

编译需要40分钟左右:成功后在spark-2.2.0目录下出现spark-2.2.0-bin-custom-spark.tgz包
将它移动到其他目录下:mv spark-2.2.0-bin-custom-spark.tgz /usr/local/

Scala2.11.8下载安装


Spark配置


验证Spark


cd /usr/local/spark-2.2.0-bin-hadoop2.6.0-cdh5.11.1/
bin/spark-shell

出现如下界面即可:


spark运行截图
上一篇 下一篇

猜你喜欢

热点阅读