我爱编程

hadoop体系的简单学习笔记

2017-07-18  本文已影响52人  Lokvahkoor

Mahout

mahout:运行在hadoop集群上的机器学习库

使用mahout:

  1. 下载,解压安装包

  2. 设置环境变量,编译配置文件

  3. 键入mahout --help命令,检查Mahout是否安装完好

  4. 在hdfs的目标目录中,输入mahout xxxx执行mahout作业

  5. mahout会在根目录建立output新文件夹,保存计算结果

Hive

值得注意的特性:

Hive 的使用:

  1. 安装SQL
  2. 进入mysql命令行,创建hive用户并赋予所有权限
  3. 使用hive用户登录,创建hive数据库
  4. 安装并部署Hive(包括一系列复杂的配置blablalba...)
  5. 启动metastore和hiveserver服务
  6. 进入hive命令行,使用HQL进行操作。

Pig:

  1. 下载,解压Pig程序,配置环境变量及Pig运行模式,编译配置文件
  2. 启动hadoop集群,在shell中输入pig,看到pig连接到hadoop集群的信息并且进入了grunt shell命令行模式
  3. 然后调用hadoop上传本地文件命令hadoop fs -xxx把该文件传到HDFS上
  4. 在pig shell中输入相关命令,执行job
  5. 在执行过程中可在JobTracker页面观察运行情况
  6. 在hdfs中查看运行结果

Hbase

Hbase在Hadoop体系中的位置:

层级构件 描述
HDFS 文件系统
Hbase 数据库管理系统
Hive 高级数据库管理语言(Hive)

HBase访问接口

Sqoop

Sqoop即 SQL to Hadoop ,是一款方便的在传统关系型数据库与Hadoop之间进行数据迁移的工具,它充分的利用了MapReduce并行特点以批处理的方式加快数据传输。

Flume

Flume是一个分布式、可靠和高可用的海量日志采集、聚合和传输的系统。

Flume的输入端(数据源)可以是:

Flume的输出端可以是:

上一篇 下一篇

猜你喜欢

热点阅读