大数据开发大数据Hadoop系

Hadoop学习(四)——数据倾斜

2019-08-05  本文已影响6人  大数据阶梯之路

一、什么是数据倾斜

正常的数据分布,在理论上都是数据倾斜的。
数据倾斜是大量的相同key被partition分配到一个分区里,造成了'一个人累死,其他人闲死'的情况,违背了并行计算的初衷,而且当其他节点计算好了还要等待这个忙碌节点的计算,效率就被拉低了。
分为2种情况:(注意:唯一值key指的是map阶段处理后产生的key-value对
①唯一值非常少,极少数值有非常多的记录值(唯一值少于几千)
②唯一值比较多,这个字段的某些值有远远多于其他值的记录数,但是它的占比也小于百分之一或千分之一

二、为何会数据倾斜

出现的原因:①SQL语句编写本身存在数据倾斜;②key分布不均匀;③建表时分区还有字段设计等出现考虑不周;④业务数据本身存在数据倾斜。
根本原因:redurce数据处理不均匀

出现的操作:

出现的表现:任务进度长时间维持在99%(或100%),查看任务监控页面,发现只有少量(1个或几个)reduce子任务未完成。因为其处理的数据量和其他reduce差异过大。

三、如何应对数据倾斜

如何将数据均匀的分配到各个reduce中,就是解决数据倾斜的根本所在。
解决数据倾斜,无非是去观察数据先,查看执行计划,寻找原因的突破口。

hive.map.aggr=true    //Map端部分聚合,相当于Combiner
hive.groupby.skewindata=true    //有数据倾斜的时候进行负载均衡,当选项设定为true,生成的查询计划会有两个 MR Job
set mapred.reduce.tasks=100;    //设置每个redurce处理的task

四、典型业务场景

来源于https://blog.csdn.net/wyz0516071128/article/details/80997158 来源于https://blog.csdn.net/wyz0516071128/article/details/80997158 来源于https://blog.csdn.net/wyz0516071128/article/details/80997158 总结:
当大表关联小表时,判断小表不大于1G时,小表很小,尽量使用map join,hive在redurce阶段完成的join就是common join,在map阶段完成的join就是map join。
对于group by或distinct,设定 hive.groupby.skewindata=true

附学习参考文章:
1、hadoop数据倾斜应对
2、数据倾斜造成原因
3、hive各阶段原理
4、hive的common join和map join原理

上一篇下一篇

猜你喜欢

热点阅读