后台开发Hadoop在简书Hadoop

离线技术处理总结

2016-10-29  本文已影响1069人  MichaelFly

前言

大数据处理技术应用:

我们正在做的:

离线:


image image

三、数据导出(sqoop)

hive导入mysql脚本

#下载HDFS文件到本地目录
hadoop fs -get $basedir/$hive_table/dt=$year-$month-$day/ $resultDir
#进入本地文件目录
cd $resultDir/dt=$year-$month-$day
pwd
#合并文件
cat ./* > data.txt
#exit
#加载数据至mysql数据库
mysql -u root -p123456 -h$server -e "use '$mysql_database';
delete from $mysql_table where data_dt='$year-$month-$day';
load data local infile '$resultDir/dt=$year-$month-$day/data.txt' into table $mysql_table FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n';"

四、商业化hadoop平台CDH应用

hadoop是一个开源项目,所以很多公司在这个基础进行商业化,Cloudera对hadoop做了相应的改变


image

首页有四个菜单

  • projects:最重要的部分,创建一个工程,所有flows将在工程中运行。
  • scheduling:显示定时任务
  • executing:显示当前运行的任务
  • history:显示历史运行任务

主要介绍projects部分
首先创建一个工程,填写名称和描述,比如o2olog。


image

Flows:工作流程,有多个job组成
Permissions:权限管理
Project Logs:工程日志

  1. 创建工程:

创建之前我们先了解下之间的关系,一个工程包含一个或多个flows,一个flow包含多个job。job是你想在azkaban中运行的一个进程,可以是简单的linux命令,可是java程序,也可以是复杂的shell脚本,当然,如果你安装相关插件,也可以运行插件。一个job可以依赖于另一个job,这种多个job和它们的依赖组成的图表叫做flow。
job创建

创建job很简单,只要创建一个以.job结尾的文本文件就行了,例如我们创建一个工作,用来将日志数据导入hive中(关于大数据方面的东西,不在重复,可以理解为,将日志所需数据导入的mysql中),我们创建o2o_2_hive.job

type=command
command=echo "data 2 hive"

一个简单的job就创建好了,解释下,type的command,告诉azkaban用unix原生命令去运行,比如原生命令或者shell脚本,当然也有其他类型,后面说。

一个工程不可能只有一个job,我们现在创建多个依赖job,这也是采用azkaban的首要目的。

2、Flows创建

我们说过多个jobs和它们的依赖组成flow。怎么创建依赖,只要指定dependencies参数就行了。比如导入hive前,需要进行数据清洗,数据清洗前需要上传,上传之前需要从ftp获取日志。
定义5个job:

  • o2o_2_hive.job:将清洗完的数据入hive库
  • o2o_clean_data.job:调用mr清洗hdfs数据
  • o2o_up_2_hdfs.job:将文件上传至hdfs
  • o2o_get_file_ftp1.job:从ftp1获取日志
  • o2o_get_file_fip2.job:从ftp2获取日志
    依赖关系:
    3依赖4和5,2依赖3,1依赖2,4和5没有依赖关系。

o2o_2_hive.job

type=command
# 执行sh脚本,建议这样做,后期只需维护脚本就行了,azkaban定义工作流程
command=sh /job/o2o_2_hive.sh
dependencies=o2o_clean_data

o2o_clean_data.job

type=command
# 执行sh脚本,建议这样做,后期只需维护脚本就行了,azkaban定义工作流程
command=sh /job/o2o_clean_data.sh
dependencies=o2o_up_2_hdfs

o2o_up_2_hdfs.job

type=command
#需要配置好hadoop命令,建议编写到shell中,可以后期维护
command=hadoop fs -put /data/*
#多个依赖用逗号隔开
dependencies=o2o_get_file_ftp1,o2o_get_file_ftp2

o2o_get_file_ftp1.job

type=command
command=wget "ftp://file1" -O /data/file1

o2o_get_file_ftp2.job

type=command
command=wget "ftp:file2" -O /data/file2
  1. 将上述job打成zip包。上传:
image
image

点击o2o_2_hive进入流程,azkaban流程名称以最后一个没有依赖的job定义的。


image
右上方是配置执行当前流程或者执行定时流程。
image

Flow view:流程视图。可以禁用,启用某些job
Notification:定义任务成功或者失败是否发送邮件
Failure Options:定义一个job失败,剩下的job怎么执行
Concurrent:并行任务执行设置
Flow Parametters:参数设置。
1.执行一次
设置好上述参数,点击execute。


image
绿色代表成功,蓝色是运行,红色是失败。可以查看job运行时间,依赖和日志,点击details可以查看各个job运行情况。
image
2.定时执行
image

五、报表平台

imageimage
imageimage
imageimage

参看文章:

  1. HDFS深入浅析:http://www.cnblogs.com/linuxprobe/p/5594431.html

  2. Hive SQL编译过程:http://tech.meituan.com/hive-sql-to-mapreduce.html

  3. Hadoop 新 MapReduce 框架 Yarn 详解:http://www.ibm.com/developerworks/cn/opensource/os-cn-hadoop-yarn/

  4. Sqoop安装配置及演示:http://www.micmiu.com/bigdata/sqoop/sqoop-setup-and-demo/

  5. Hue安装配置实践:http://shiyanjun.cn/archives/1002.html

  6. Hadoop Hive sql语法详解:http://blog.csdn.net/hguisu/article/details/7256833

  7. Azkaban-开源任务调度程序(安装篇):http://www.jianshu.com/p/cc680380ca34

  8. Azkaban-开源任务调度程序(使用篇):http://www.jianshu.com/p/484564beda1d

  9. Hive高级查询(group by、 order by、 join等) :http://blog.csdn.net/scgaliguodong123_/article/details/46944519

上一篇 下一篇

猜你喜欢

热点阅读