@IT·大数据帘西大数据

Hive入门详解:包括数据模型,数据类型、常用函数等

2019-05-20  本文已影响20人  小小毛同学

一、Hive的几种数据模型

内部表 (Table 将数据保存到Hive 自己的数据仓库目录中:/usr/hive/warehouse)

外部表 (External Table 相对于内部表,数据不在自己的数据仓库中,只保存数据的元信息)

分区表 (Partition Table将数据按照设定的条件分开存储,提高查询效率,分区-----> 目录)

桶表 (Bucket Table本质上也是一种分区表,类似 hash 分区 桶 ----> 文件)

视图表 (视图表是一个虚表,不存储数据,用来简化复杂的查询)

注意:内部表删除表后数据也会删除,外部表数据删除后不会从hdfs中删除

1. 内部表/管理表

每一个Table在Hive中都有一个相应的目录存储数据

所有的Table数据都存储在该目录

每一个Table在Hive中都有一个相应的目录存储数据

所有的Table数据都存储在该目录

# 创建表

create table if not exists aiops.appinfo (

    appname string,

    level string,

    leader string,

    appline string,

    dep string,

    ips  array<string>)

    ROW FORMAT DELIMITED

    FIELDS TERMINATED BY ' '

    COLLECTION ITEMS TERMINATED BY ',';

# 自定义文件和记录格式

## 使用create table创建表,最后使用stored as sequencefile保存成sequence格式[默认是text格式]

# 数据库授权

hive> grant create on database dbname to user hadoop;

# 导入数据(本地导入和hdfs导入)

hive> load data inpath  'hdfs://hdfs-name/sure.csv' overwrite into table aiops.appinfo;

load data local inpath '/home/hdfs/online_state1' overwrite into table online_state PARTITION (end_dt='99991231');

# 查看表结构

hive> describe extended bgops;

hive> describe bgops;

# 修改列名

## 这个命令可以修改表的列名,数据类型,列注释和列所在的位置顺序,FIRST将列放在第一列,AFTER col_name将列放在col_name后面一列

hive> ALTER TABLE aiops.appinfo CHANGE hostnum ipnum int comment 'some 注释' AFTER col3;

# 修改表结构

ALTER TABLE aiops.appinfo replace columns (appname string,level string,leader string,appline string,dep string,ips array<string>);

ALTER TABLE appinfo replace columns (appname string,appline string,level string,leader string,dep string,idcnum int,idcs array<string>,hostnum int,ips array<string>);

## 增加表的列字段(默认增加到最后一列,可以使用change column 来调整位置)

hive> alter table appinfo add columns (appclass string comment 'app_perf_class');

# 导出表查询结果(会将结果导出到testoutput目录下)

hive> insert overwrite local directory './testoutput'

    > row format delimited fields terminated by "\t"

    > select ip,appname,leader from appinfo  LATERAL VIEW explode(ips) tmpappinfo  AS ip;

2.外部表的使用场景

原始日志文件或同时被多个部门同时操作的数据集,需要使用外部表

如果不小心将meta data删除了,HDFS上的数据还在,可以恢复,增加了数据的安全性

注意:使用insert插入数据时会产生临时表,重新连接后会表会消失,因此大批量插入数据时不建议用insert

tips1:在hdfs的hive路径下以.db结尾的其实都是实际的数据库

tips2:默认的default数据库就在hive的家目录

3. 分区表

注意:分区表通常分为静态分区表和动态分区表,前者需要导入数据时静态指定分区,后者可以直接根据导入数据进行分区。分区的好处是可以让数据按照区域进行分类,避免了查询时的全表扫描。

# 创建外部分区表,指定静态分区为dt

CREATE EXTERNAL TABLE if not exists aiops.tmpOnline(ip string,

status string,

....

)

PARTITIONED BY (

  dt string);

# 导入数据到静态分区表中(需要注意的是数据中没有dt字段)

load data local inpath '/home/hdfs/tmpOnline' overwrite into table aiops.tmpOnline PARTITION (dt='99991231');

# 动态分区表的使用(动态分区和静态分区表的创建时没有区别的)

# 注意:hive默认没有开启动态分区,需要进行参数修改

# 使用动态分区的记录中,必须在指定位置包含动态分区的字段才能被动态分区表识别

hive>set hive.exec.dynamic.partition.mode=nonstrict;

hive>

insert

  overwrite

table aiops.tmpOnline

partition(dt)

select

ip,appname,....,from_unixtime(unix_timestamp(),'yyyyMMdd') as dt from table;

# 手动添加分区

alter table tablename add partition (dt='20181009');

# 删除分区,数据也会删除(所以一般会使用外部分区表?)

## 注意:如果数据有变动,是无法将数据load到同一个时间分区的记录的

alter table tablename drop partition (dt='20181009');

# 查询分区表没有加分区过滤,会禁止提交这个任务(strict方式每次查询必须制定分区)

set hive.mapred.mode = strict|nostrict;

注意:在外部分区表中,如果将表删除了,重建表后只需要将分区加载进来即可恢复历史相关分区的数据。

多重分区的使用

# 创建多重分区表

create table log_m (

    id  int,

    name string,

    age int

)

partitioned by (year string,month string,day string)

row format delimited

fields terminated by '|'

collection items terminated by ','

map keys terminated by ':'

lines terminated by '\n';

# 插入数据

insert into table log_m partition  (year='2018',month='10',day='10') values(1,'biaoge',24);

insert into table log_m partition  (year='2018',month='10',day='09') values(2,'bgbiao',25);

hive> show partitions log_m;

OK

year=2018/month=10/day=09

year=2018/month=10/day=10

Time taken: 0.055 seconds, Fetched: 2 row(s)

hive>

# 多重动态分区

# 好像动态分区表不能直接load data

hive> insert into table log_m partition(year,month,day) values(3,'xuxuebiao',28,'2016','09','10');

hive> show partitions log_m;

OK

year=2016/month=09/day=10

year=2018/month=10/day=09

year=2018/month=10/day=10

# 查询分区数据

hive> select * from log_m where year = '2018';

OK

2 bgbiao  25  2018  10  09

1 biaoge  24  2018  10  10

2 bgbiao  25  2018  10  10

二、Hive的复杂数据类型的使用

三、Hive的常用函数

hive的所有函数文件(全部的)(加微信maochentingqiang发给你)

http://www.aboutyun.com/forum.php?mod=viewthread&tid=27181

上一篇下一篇

猜你喜欢

热点阅读