大数据

使用Docker安装Hadoop和spark

2018-11-03  本文已影响0人  zealscott

使用docker配置安装hadoop和spark

分别安装hadoop和spark镜像

安装hadoop镜像

选择的docker镜像地址,这个镜像提供的hadoop版本比较新,且安装的是jdk8,可以支持安装最新版本的spark。

docker pull uhopper/hadoop:2.8.1

安装spark镜像

如果对spark版本要求不是很高,可以直接拉取别人的镜像,若要求新版本,则需要对dockerfile进行配置。

环境准备

  1. 下载sequenceiq/spark镜像构建源码

    git clone https://github.com/sequenceiq/docker-spark
    
  2. 从Spark官网下载Spark 2.3.2安装包

  3. 将下载的文件需要放到docker-spark目录下

  4. 查看本地image,确保已经安装了hadoop

  5. 进入docker-spark目录,确认所有用于镜像构建的文件已经准备好

    • image-20181030125353071

修改配置文件

启动一个spark2.3.1容器

docker run -it -p 8088:8088 -p 8042:8042 -p 4040:4040 -h sandbox scottdyt/spark:2.3.2 bash

启动成功:

Screen Shot 2018-10-30 at 12.10.59 PM

安装spark-hadoop镜像

如果想偷懒一点,直接安装装好spark和hadoop的镜像,镜像地址在这里

或者直接在终端输入:

docker pull uhopper/hadoop-spark:2.1.2_2.8.1

安装完成:

image-20181030124727908

参考

  1. https://blog.csdn.net/farawayzheng_necas/article/details/54341036
上一篇下一篇

猜你喜欢

热点阅读