macOS安装Spark时遇到的问题

2019-05-13  本文已影响0人  TrevorTse

由于 spark-shell 报错的问题了解到Apache spark官方不支持 Java 10 ,而系统里装的却是最新的 Java 11。折腾了半天算是把整个安装流程走通了。做个笔记mark一下。

首先对于 Java 版本的问题,在终端可以先自检系统里的 Java 版本号

$ java -version
java version "11.0.1" 2018-10-16 LTS
Java(TM) SE Runtime Environment 18.9 (build 11.0.1+13-LTS)
Java HotSpot(TM) 64-Bit Server VM 18.9 (build 11.0.1+13-LTS, mixed mode)

1. 卸载当前使用的Java

macOS在 System Preference 里可以找到 Java 图标,点开后会弹出 Java control panel ,但没有发现能够卸载 java的按钮。那只好找官方文档看看了:(https://www.java.com/en/download/help/mac_uninstall_java.xml)

两种办法卸载当前版本

但是,此时用$ java -version 查询 Java 的版本号,还是之前的版本,为什么呢?

印度小哥的视频:https://youtu.be/a-aW1pKvLsg

macOS系统下默认读取/Library/Java/JavaVirtualMachines 路径下的.jdk 文件,自动读取最高版本的 Java。我们只需要到这个路径下把正在使用的版本对应的.jdk文件。这样该版本Java 就被删除了(需要管理员身份)。

此时系统没有里没有Java,如果再次查询Java的版本号:

$ java -version
No Java runtime present, requesting install.

2. 安装Java

由于甲骨文公司已经将Java 8 从官网上下架,用brew 来安装 Java8 会出现"无法发现名为"java8"可用的cask"。对于这个问题有两种解决方法,首先先把Java8的包下载下来

Java 8下载地址(需要注册登录):https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

对于brew cask的安装方法较为复杂,推荐直接用下载的包直接双击安装。


安装spark

先把scala装上:

$ brew install scala

再装apache-spark

$ brew install apache-spark

最后在工作目录下的 bash 配置文件 .bash_profile 中添加 spark 目录

export SPARK_HOME=/usr/local/Cellar/apache-spark/2.0.1/libexec

最后推荐一篇简易安装说明,如果早点看到这篇文章也不用那么折腾了……

How to Install PySpark and Apache Spark on MacOS: https://sharing.luminis.eu/blog/how-to-install-pyspark-and-apache-spark-on-macos/

上一篇下一篇

猜你喜欢

热点阅读