Spark分布式大数据分析平台安装与配置

2019-03-15  本文已影响0人  谖瓞

大数据分析方法与应用 课程实验一

1.实验目的

  通过本实验,搭建基于 spark 的大数据分析与设计平台,为(可能的)后续的大数据实验做准备。能够在 Linux 操作系统下 pyspark 交互式方式下运行 python spark 语句。能够使用 spark-submit 提交数据处理任务。

2.实验步骤

第 0 步,准备工作

0.1 准备 Linux 操作系统,Ubuntu 16.04

  本次采用阿里云平台轻量应用服务器作为搭建平台,安装的操作系统为 Ubuntu 16.04,以下操作均通过 Xshell 连接服务器完成,由于以 root 账户登录,下述命令不再以 sudo 命令开始。

0.2 安装 JDK1.8

apt install software-properties-common
apt-get install python-software-properties
add-apt-repository ppa:webupd8team/java
apt-get update
apt-get install oracle-java8-installer
echo '#set oracle jdk environment' >> /root/.bashrc
echo 'export JAVA_HOME="/usr/lib/jvm/java-8-oracle"' >> /root/.bashrc
echo 'export JRE_HOME="${JAVA_HOME}/jre"' >> /root/.bashrc
echo 'export CLASSPATH=".:${JAVA_HOME}/lib:${JRE_HOME}/lib"' >> /root/.bashrc
echo 'export PATH="${JAVA_HOME}/bin:$PATH"' >> /root/.bashrc
source /root/.bashrc
Java8 安装完成

0.3 安装 Anaconda

  本次安装的版本为 Anaconda3-2018.12-Linux-x86_64.sh

wget https://repo.continuum.io/archive/Anaconda3-2018.12-Linux-x86_64.sh
bash Anaconda3-2018.12-Linux-x86_64.sh

  期间按 Enter 键阅读协议,同意协议后才能正常安装。可执行以下命令配置 conda 环境变量(请自行替换 anaconda 路径):

echo 'export PATH="/root/anaconda3/bin:$PATH"' >> /root/.bashrc
source ~/.bashrc

  输入conda -V 可查看 conda 版本,输入conda upgrade --all 可更新 conda版本。

Anaconda 安装完成

0.4 安装 PySpark

  安装 PySpark 可采取多种方式,

  1. 使用 pip 进行安装,执行以下命令,即可完成安装:pip install pyspark

    PySpark 安装完成
  2. 官网下载官方包手动解压安装的方式:

wget http://apache.stu.edu.tw/spark/spark-2.4.0/spark-2.4.0-bin-hadoop2.7.tgz

0.5 配置 PySpark

start-master
./bin/spark-submit  --master spark://127.0.0.1:7077 ./examples/src/main/python/pi.py 1000

  查看 http://服务器 ip:8080 中的信息

spark-submit
上一篇下一篇

猜你喜欢

热点阅读