大数据,机器学习,人工智能大数据大数据 爬虫Python AI Sql

eppelin入门并集成Spark2.3.2和Carbondat

2019-08-20  本文已影响2人  Java程序员YY

下载安装包:

如上图所示,下载页面上有两个二进制安装包。这两个二进制文件唯一的区别是安装包中包含的解释器不同。

all interpreter package:将其解压到您选择的目录中,就可以开始了。

net-install interpreter package:解压包并根据以下链接来安装额外的解释器。如果不确定,就运行./bin/install- interpretation .sh --all 安装所有的解释器。

下载zeppelin-0.8.1-bin-all.tgz,然后上传至服务器,如下图所示:

上传至/opt/software目录中。

安装步骤:

使用以下命令,将安装包解压到/opt/apps目录中:

cd /opt/software

tar -zxf zeppelin-0.8.1-bin-all.tgz -C /opt/apps/

cd /opt/apps/zeppelin-0.8.1-bin-all

配置zeppelin-env.sh文件:

cd conf/

cp zeppelin-env.sh.template zeppelin-env.sh

vim zeppelin-env.sh

修改以下配置:

export JAVA_HOME=/opt/java/jdk1.8.0_131

export MASTER=yarn-client

export SPARK_HOME=/opt/apps/spark

export SPARK_SUBMIT_OPTIONS="--packages com.databricks:spark-csv_2.11:1.2.0"

export HADOOP_CONF_DIR=/etc/hadoop/conf

配置zeppelin-site.xml文件:

cp zeppelin-site.xml.template zeppelin-site.xml

vim zeppelin-site.xml

修改以下配置,修改zeppelin的端口号为58888:

<property>

<name>zeppelin.server.port</name>

<value>58888</value>

<description>Server port.</description>

</property>

往spark的$SPARK_HOME/jars/中添加Carbondata的依赖包:

替换zeppelin中的jackson依赖包:

cd $ZEPPELIN_HOME/lib

rm -rf jackson-databind-2.8.11.1.jar

cp $SPARK_HOME/jars/jackson-databind-2.6.7.1.jar ./

结果如下:

将下图两个carbondata的依赖包,添加到hadoop的/opt/cloudera/parcels/CDH/lib/hadoop/lib目录下:

启动zeppelin

启动服务命令

bin/zeppelin-daemon.sh start

停止服务命令

bin/zeppelin-daemon.sh stop

基本操作zeppelin

打开浏览器,输入主机名:+58888端口号,进入zeppelin界面:

点击以下红框圈住的连接,可以创建note:

点击以下红框圈住的连接,可以配置解释器:

点击Interpreter进行配置:

对hdfs进行配置:

对spark进行配置:

返回首页,点击create new note,可以创建一个note,创建时输入note名称,并选择解释器,点击创建:

首先输入声明,其次输入指令进行操作,指令可以试类SQL,也可以是Scala或者python程序:

根据查询结果,具有不同的图表展示:

也可以直接输入程序:

spark的声明有如下图所示:


小编这里整理了更多相关的 学习资料和 学习视频,可免费领取。

加 VX:17778119562        通过验证备注:111(备注必填,方便通过)


上一篇下一篇

猜你喜欢

热点阅读