linux服务器 conda + jdk+ scala+ spa

2020-02-23  本文已影响0人  戈季

1.安装anaconda并新建conda环境,注意和windows中不一样的是启动环境命令是

conda create -n spark
source activate spark

2.安装并查看java8版本,我这里java版本是1.8.0_151


image.png

3.安装scala,可以在Anaconda官网搜索版本并安装,我这里scala版本2.12.8
安装py4j

conda install -c pdrops scala
conda install py4j

4.安装Spark,以上依赖就全部完成了,下载并解压spark-2.4.0-bin-hadoop2.7.tgz

tar -xzf spark-2.4.0-bin-hadoop2.7.tgz
上一篇下一篇

猜你喜欢

热点阅读