CDH+Kylin三部曲之二:部署和设置
欢迎访问我的GitHub
https://github.com/zq2599/blog_demos
内容:所有原创文章分类汇总及配套源码,涉及Java、Docker、Kubernetes、DevOPS等;
本篇概览
本文是《CDH+Kylin三部曲》系列的第二篇,上一篇《CDH+Kylin三部曲之一:准备工作》已将所需的机器和文件准备完毕,可以部署CDH和Kylin了;
执行ansible脚本部署CDH和Kylin(ansible电脑)
-
进入ansible电脑的<font color="blue">~/playbooks</font>目录,经过上一篇的准备工作,该目录下应该是下图这些内容:
在这里插入图片描述 -
检查ansible远程操作CDH服务器是否正常,执行命令<font color="blue">ansible deskmini -a "free -m"</font>,正常情况下显示CDH服务器的内存信息,如下图:
在这里插入图片描述 - 执行命令开始部署:<font color="blue">ansible-playbook cm6-cdh5-kylin264-single-install.yml</font>
- 整个部署过程涉及在线安装、传输大文件等耗时的操作,请耐心等待(半小时左右),如果部署期间出错退出(例如网络问题),只需重复执行上述命令即可,ansible保证了操作的幂等性;
-
部署成功如下图所示:
在这里插入图片描述
重启CDH服务器
由于修改了selinux和swap的设置,需要重启操作系统才能生效,因此请重启CDH服务器;
执行ansible脚本启动CDH服务(ansible电脑)
- 等待CDH服务器重启成功;
- 登录ansible电脑,进入<font color="blue">~/playbooks</font>目录;
- 执行初始化数据库和启动CDH的脚本:<font color="blue">ansible-playbook cdh-single-start.yml</font>
-
启动完成输出如下信息:
在这里插入图片描述 -
ssh登录CDH服务器,执行此命令观察CDH服务的启动情况:<font color="blue">tail -f /var/log/cloudera-scm-server/cloudera-scm-server.log</font>,看到下图红框中的内容时,表示启动完成,可以用浏览器登录了:
在这里插入图片描述
设置(浏览器操作)
现在CDH服务已经启动了,可以通过浏览器来操作:
-
浏览器访问:http://192.168.50.134:7180 ,如下图,账号密码都是<font color="blue">admin</font>:
在这里插入图片描述 -
一路next,在选择版本页面选择60天体验版:
在这里插入图片描述 -
选择主机页面可见CDH服务器(deskmini):
在这里插入图片描述 -
在选择CDH版本的页面,请选择下图红框中的5.16.2-1:
在这里插入图片描述 -
进入安装Parcel的页面,由于提前上传了离线parcle包,因此下载进度瞬间变成百分之百,此时请等待分配、解压、激活的完成:
在这里插入图片描述 -
接下来有一些推荐操作,这里选择如下图红框,即可跳过:
在这里插入图片描述 -
接下来是选择服务的页面,我选择了自定义服务,然后选择了<font color="blue">HBase、HDFS、Hive、Hue、Oozie、Spark、YARN、Zookeeper</font>这八项,可以满足运行Kylin的需要:
在这里插入图片描述 -
在选择主机的页面,都选择CDH服务器:
在这里插入图片描述 -
接下来是数据库设置的页面,<font color="red">您填写的内容必须与下图保持一致</font>,即主机名<font color="blue">为localhost</font>,Hive的数据库、用户、密码都是hive,Activity Monitor的数据库、用户、密码都是amon,Reports Manager的数据库、用户、密码都是rman,Oozie Server的数据库、用户、密码都是oozie,Hue的数据库、用户、密码都是hue,这些内容在ansible脚本中已经固定了,此处的填写必须保持一致:
在这里插入图片描述 -
在设置参数的页面,请按照您的硬盘实际情况设置,我这里<font color="blue">/home</font>目录下空间充足,因此存储位置都改为<font color="blue">/home</font>目录下:
在这里插入图片描述 -
等待服务启动:
在这里插入图片描述 -
各服务启动完成:
在这里插入图片描述
HDFS设置
-
如下图红框所示,HDFS服务存在问题:
在这里插入图片描述 -
点击上图中红色感叹号可见问题详情,如下图,是常见的副本问题:
在这里插入图片描述 -
操作如下图,在HDFS的参数设置页面,将<font color="blue">dfs.replication</font>的值设置为1(只有一个数据节点):
在这里插入图片描述 - 经过上述设置,副本数已经调整为1,但是已有文件的副本数还没有同步,需要重新做设置,SSH登录到CDH服务器上;
- 执行命令<font color="blue">su - hdfs</font>切换到hdfs账号,再执行以下命令即可完成副本数设置:
hadoop fs -setrep -R 1 /
-
回到网页,重启HDFS服务,如下图:
在这里插入图片描述 -
重启后HDFS服务正常:
在这里插入图片描述
YARN设置
默认的YARN参数是非常保守的,需要做一些设置才能顺利执行Spark任务:
- 进入YARN管理页;
-
如下图所示,检查参数<font color="blue">yarn.nodemanager.resource.cpu-vcores</font>的值,该值必须大于1,否则提交Spark任务后YARN不分配资源执行任务,(如果您的CDH服务器是虚拟机,当CPU只有单核时,则此参数就会被设置为1,解决办法是先提升虚拟机CPU核数,再来修改此参数):
在这里插入图片描述 - <font color="blue">yarn.scheduler.minimum-allocation-mb</font>:单个容器可申请的最小内存,我这里设置为1G
- <font color="blue">yarn.scheduler.maximum-allocation-mb</font>:单个容器可申请的最大内存,我这里设置为8G
- <font color="blue">yarn.nodemanager.resource.memory-mb</font>:节点最大可用内存,我这里设置为8G
- 上述三个参数的值,是基于我的CDH服务器有32G内存的背景,请您按照自己硬件资源自行调整;
-
设置完毕后重启YARN服务,操作如下图所示:
在这里插入图片描述
Spark设置(CDH服务器)
需要在Spark环境准备一个目录以及相关的jar,否则Kylin启动会报错(提示<font color="blue">spark not found, set SPARK_HOME, or run bin/download-spark.sh</font>),以<font color="red">root</font>身份SSH登录CDH服务器,执行以下命令:
mkdir $SPARK_HOME/jars \
&& cp $SPARK_HOME/assembly/lib/*.jar $SPARK_HOME/jars/ \
&& chmod -R 777 $SPARK_HOME/jars
启动Kylin(CDH服务器)
- SSH登录CDH服务器,执行<font color="blue">su - hdfs</font>切换到hdfs账号;
- 按照官方推荐,先执行检查环境的命令:<font color="blue">$KYLIN_HOME/bin/check-env.sh</font>
-
检查通过的话控制台输出如下:
在这里插入图片描述 - 启动Kylin:<font color="blue">$KYLIN_HOME/bin/kylin.sh start</font>
-
控制台输出以下内容说明启动Kylin成功:
在这里插入图片描述
登录Kylin
- 浏览器访问:http://192.168.50.134:7070/kylin,如下图,账号<font color="blue">ADMIN</font>,密码<font color="blue">KYLIN</font>(账号和密码都是大写):
在这里插入图片描述 -
登录成功,可以使用了:
在这里插入图片描述
至此,CDH和Kylin的部署、设置、启动都已完成,Kylin已经可用了,在下一篇文章中,我们就在此环境运行Kylin的官方demo,体验Kylin;
欢迎关注公众号:程序员欣宸
微信搜索「程序员欣宸」,我是欣宸,期待与您一同畅游Java世界...
https://github.com/zq2599/blog_demos