大数据组件之oozie
一、oozie介绍
官网首页介绍:http://oozie.apache.org
(1)Oozie是一个管理 Apache Hadoop 作业的工作流调度系统。
(2)Oozie的 workflow jobs 是由 actions 组成的 有向无环图(DAG)。
(3)Oozie的 coordinator jobs 是由时间 (频率)和数据可用性触发的重复的 workflow jobs 。
(4)Oozie与Hadoop生态圈的其他部分集成在一起,支持多种类型的Hadoop作业(如Java map-reduce、流式map-reduce、Pig、Hive、Sqoop和Distcp)以及特定于系统的工作(如ava程序和shell脚本)。
(5)Oozie是一个可伸缩、可靠和可扩展的系统。
二、对比选型
简单项目的话可以用crontab来做控制,但是项目比较复杂的话会发现还是有很多不方便的,比如失败重启和日志查看等问题,所以我们通常在Azkaban和oozie之间做对比,选择适合自己公司或者项目的任务调度工具
- 执行方式:Oozie底层在提交Hadoop Spark作业而Azkaban是直接操作shell语句。
- 工作流定义: Oozie是通过xml定义的而Azkaban为properties来定义。
- 部署过程: Oozie的部署相对困难些,同时它是从Yarn上拉任务日志。
- 任务检测: Azkaban中如果有任务出现失败,只要进程有效执行,那么任务就算执行成功,这是BUG,但是Oozie能有效的检测任务的成功与失败。
- 操作工作流: Azkaban使用Web操作。Oozie支持Web,RestApi,Java API操作。
- 权限控制: Oozie基本无权限控制,Azkaban有较完善的权限控制,供用户对工作流读写执行操作。
- 运行环境: Oozie的action主要运行在hadoop中而Azkaban的actions运行在Azkaban的服务器中。
- 记录workflow的状态: Azkaban将正在执行的workflow状态保存在内存中,Oozie将其保存在Mysql中。
- 出现失败的情况: Azkaban会丢失所有的工作流,但是Oozie可以在继续失败的工作流运行
两者在功能方面大致相同,在安全性上可能Oozie会比较好,加之我们选择了CDH作为大数据平台,所以就用了其自带的oozie工具,且有相应的可视化操作工具hue配套使用,较为便捷。
三、架构原理
Oozie主要有三个层层包裹的主要概念
- Workflow:工作流,由我们需要处理的每个工作组成,进行需求的流式处理,是对要进行的顺序化工作的抽象。
- Coordinator:协调器,可以理解为工作流的协调器,可以将多个工作流协调成一个工作流来进行处理,是对要进行的顺序化的workflow的抽象。
- Bundle:捆,束。将一堆的coordinator进行汇总处理,是对一堆coordiantor的抽象。
关于oozie的作业
Oozie的作业有三部分组成,分别是job.properties,workflow.xml,lib文件夹。下面分别介绍
Job.properties
从名称也能看出来,这个文件是用来配置作业(job)中用到的各种参数的,总结如下
注:
1、这个文件如果是在本地通过命令行进行任务提交的话,这个文件在本地就可以了,当然也可以放在hdfs上,与workflow.xml和lib处于同一层级。
2、nameNode,jobTracker和workflow.xml在hdfs中的位置必须设置。
一个简单的job.properties文件如下:
nameNode=hdfs://cm1:8020
jobTracker=cm1:8032
queueName=default
examplesRoot=examples
oozie.wf.application.path=${nameNode}/user/workflow/oozie/shell
workflow.xml:
这个文件是定义任务的整体流程的文件,需要注意的有三点:版本信息,EL函数,节点信息。
先上一个例子:
01. <workflow-app xmlns="uri:oozie:workflow:0.4" name="${sys_name}-MonitorPlus-Task-${task_id}">
02. <start to=“check-xxx-succ-flag"/>
03.
04. <decision name=“check-xxx-succ-flag">
05. <switch>
06. <case to="check-mr-succ-flag">${fs:exists(concat(concat("/xxx/output/xxxList/",
07. task_id),"/_SUCCESS"))}</case>
08. <default to=“do-xxx"/>
09. </switch>
10. </decision>
11.
12. <decision name="check-mr-succ-flag">
13. <switch>
14. <case to="end">${fs:exists(concat(concat(“/xxx/output/", task_id),"/_SUCCESS"))}</case>
15. <default to="do-mr"/>
16. </switch>
17. </decision>
18.
19. <action name=“do-xxx" retry-max="3" retry-interval="10">
20. <java>
21. <job-tracker>${jobTracker}</job-tracker>
22. <name-node>${namenode}</name-node>
23. <configuration>
24. <property>
25. <name>mapreduce.job.queuename</name>
26. <value>${queueName}</value>
27. </property>
28. </configuration>
29. <main-class>com.xxx.Main</main-class>
30. </java>
31. <ok to=”end”/>
32. <error to=”fail”/>
33. </action>
34. <kill name=”fail”>
35. <message>Map/Reduce failed.error message[${wf:errorMessage(wf:lastErrorNode())}]</message>
36. </kill>
37. <end name=”end”/>
38. </workflow-app>
- 版本信息:
这个是写在第一行的,如下:
<workflow-app xmlns="uri:oozie:workflow:0.4" name="${sys_name}-MonitorPlus-Task-${task_id}">
在xmls属性中定义了workflow的版本为0.4,workflow的版本不能高于oozie兼容的最高版本,可以降低。
- EL函数
常用的EL函数有基本的EL函数,workFlow EL函数和HDFSEL函数。分别如下:
- 节点:
Oozie的节点分成两种,流程控制节点和动作节点。所谓的节点实际就是一组标签。两种节点分别如下:
A. 流程控制节点
- <start />——定义workflow的开始
- <end />——定义workflow的结束
- <decision />——实现switch功能
- <switch><case /><default /></switch>标签连用
- <sub-workflow>——调用子workflow
- <kill />——程序出错后跳转到这个节点执行相关操作
- <fork />——并发执行workflow
- <join />——并发执行结束(与fork一起使用)
案例:
B. 动作节点
- <shell />——表示运行的是shell操作
- <java />——表示运行的java程序
- <fs />——表示是对hdfs进行操作
- <MR />——表示进行的是MR操作
- <hive />——表示进程的是hive操作
- <sqoop />——表示进行的是sqoop的相关操作
Workflow.xml综述
文件需要被放在HDFS上才能被oozie调度,如果在启动需要调动MR任务,jar包同样需要在hdfs上。最终的目录结构如下:
/xxx/oozie/workflow.xml
/xxx/oozie/lib
/xxx/oozie/lib/mr-1.7-SNAPSHOT-**package**.jar
/xxx/oozie/lib/xxx.mr-1.7-SNAPSHOT-**package**.jar
Lib文件夹:
在workflow工作流定义的同级目录下,需要有一个lib目录,在lib目录中存在java节点MapReduce使用的jar包。需要注意的是,oozie并不是使用指定jar包的名称来启动任务的,而是通过制定主类来启动任务的。在lib包中绝对不能存在某个jar包的不同版本,不能够出现多个相同主类。
四、安装搭建
在搭建好CDH后,可以直接通过添加服务的方式实现oozie的安装,比较方便。当然也可以在服务器上搭建独立的oozie服务,具体可参考https://oozie.apache.org/docs/5.0.0/AG_Install.html
搭设后进入oozie web控制台,地址为:OozieserverIp:11000/oozie/ (OozieserverIp为oozie所在的服务器的ip地址),界面如下:
oozie控制台注:如果界面报错 Oozie web console is disabled,请看https://docs.cloudera.com/documentation/enterprise/5-5-x/topics/admin_oozie_console.html
五、开发使用
1.拷贝官方自带实例模板
cp -r examples/apps/shell/ oozie-apps
2.修改job.properties
nameNode=hdfs://hadoop:8020
jobTracker=hadoop:8032
queueName=default
examplesRoot=oozie-apps
oozie.wf.application.path=${nameNode}/user/hadoop/${examplesRoot}/shell
EXEC=mem.sh #放一个脚本文件,脚本文件名称
3.修改workflow.xml
<start to="shell-node"/>
<action name="shell-node">
<shell xmlns="uri:oozie:shell-action:0.2">
<job-tracker>${jobTracker}</job-tracker>
<name-node>${nameNode}</name-node>
<configuration>
<property>
<name>mapred.job.queue.name</name>
<value>${queueName}</value>
</property>
</configuration>
<exec>${EXEC}</exec>
<file>${nameNode}/user/hadoop/${examplesRoot}/shell/${EXEC}#${EXEC}</file>
</shell>
<ok to="end"/>
<error to="fail"/>
</action>
<kill name="fail">
<message>Shell action failed, error message[${wf:errorMessage(wf:lastErrorNode())}]</message>
</kill>
<end name="end"/>
4.在shell目录下创建mem.sh
#!/bin/sh
/usr/bin/date -R >> /opt/modules/oozie-4.1.0-cdh5.7.0/oozie-apps/shell/1.log
/usr/bin/free -m >> /opt/modules/oozie-4.1.0-cdh5.7.0/oozie-apps/shell/1.log
/usr/bin/df -lh >> /opt/modules/oozie-4.1.0-cdh5.7.0/oozie-apps/shell/1.log
echo ------------------- >> /opt/modules/oozie-4.1.0-cdh5.7.0/oozie-apps/shell/1.log
注:/usr/bin/date为命令绝对路径,可以通过which date获得
5.上传到hdfs
bin/hdfs dfs -put /opt/modules/oozie-4.1.0-cdh5.7.0/oozie-apps/shell /user/hadoop/oozie-apps/
6.执行:
bin/oozie job -oozie http://hadoop:11000/oozie -config oozie-apps/shell/job.properties -run
7.检查结果
cat /opt/modules/oozie-4.1.0-cdh5.7.0/oozie-apps/shell/1.log