linux服务器 conda + jdk+ scala+ spa
2020-02-23 本文已影响0人
戈季
1.安装anaconda并新建conda环境,注意和windows中不一样的是启动环境命令是
conda create -n spark
source activate spark
2.安装并查看java8版本,我这里java版本是1.8.0_151
image.png
3.安装scala,可以在Anaconda官网搜索版本并安装,我这里scala版本2.12.8
安装py4j
conda install -c pdrops scala
conda install py4j
4.安装Spark,以上依赖就全部完成了,下载并解压spark-2.4.0-bin-hadoop2.7.tgz
tar -xzf spark-2.4.0-bin-hadoop2.7.tgz