eppelin入门并集成Spark2.3.2和Carbondat
下载安装包:
如上图所示,下载页面上有两个二进制安装包。这两个二进制文件唯一的区别是安装包中包含的解释器不同。
all interpreter package:将其解压到您选择的目录中,就可以开始了。
net-install interpreter package:解压包并根据以下链接来安装额外的解释器。如果不确定,就运行./bin/install- interpretation .sh --all 安装所有的解释器。
下载zeppelin-0.8.1-bin-all.tgz,然后上传至服务器,如下图所示:
上传至/opt/software目录中。
安装步骤:
使用以下命令,将安装包解压到/opt/apps目录中:
cd /opt/software
tar -zxf zeppelin-0.8.1-bin-all.tgz -C /opt/apps/
cd /opt/apps/zeppelin-0.8.1-bin-all
配置zeppelin-env.sh文件:
cd conf/
cp zeppelin-env.sh.template zeppelin-env.sh
vim zeppelin-env.sh
修改以下配置:
export JAVA_HOME=/opt/java/jdk1.8.0_131
export MASTER=yarn-client
export SPARK_HOME=/opt/apps/spark
export SPARK_SUBMIT_OPTIONS="--packages com.databricks:spark-csv_2.11:1.2.0"
export HADOOP_CONF_DIR=/etc/hadoop/conf
配置zeppelin-site.xml文件:
cp zeppelin-site.xml.template zeppelin-site.xml
vim zeppelin-site.xml
修改以下配置,修改zeppelin的端口号为58888:
<property>
<name>zeppelin.server.port</name>
<value>58888</value>
<description>Server port.</description>
</property>
往spark的$SPARK_HOME/jars/中添加Carbondata的依赖包:
替换zeppelin中的jackson依赖包:
cd $ZEPPELIN_HOME/lib
rm -rf jackson-databind-2.8.11.1.jar
cp $SPARK_HOME/jars/jackson-databind-2.6.7.1.jar ./
结果如下:
将下图两个carbondata的依赖包,添加到hadoop的/opt/cloudera/parcels/CDH/lib/hadoop/lib目录下:
启动zeppelin
启动服务命令
bin/zeppelin-daemon.sh start
停止服务命令
bin/zeppelin-daemon.sh stop
基本操作zeppelin
打开浏览器,输入主机名:+58888端口号,进入zeppelin界面:
点击以下红框圈住的连接,可以创建note:
点击以下红框圈住的连接,可以配置解释器:
点击Interpreter进行配置:
对hdfs进行配置:
对spark进行配置:
返回首页,点击create new note,可以创建一个note,创建时输入note名称,并选择解释器,点击创建:
首先输入声明,其次输入指令进行操作,指令可以试类SQL,也可以是Scala或者python程序:
根据查询结果,具有不同的图表展示:
也可以直接输入程序:
spark的声明有如下图所示:
小编这里整理了更多相关的 学习资料和 学习视频,可免费领取。
加 VX:17778119562 通过验证备注:111(备注必填,方便通过)