hive如何调整map数和reduce数

2021-08-12  本文已影响0人  春风花草

一般情况下,启动一个hive任务时hive会计算这个任务需要用到的map和reduce数量,通常map数和reduce数不需要调整。但是有时如果map或reduce的计算很复杂、单个map的执行时间很长,且hive分配的map数或reduce比较少,集群还有大量计算资源没有利用的情况下,可以通过增大map数或reduce数,来提高任务并发,缩短任务计算时长,提高计算效率。

1、hive on mr

1.1、如何调整map数

InputFormat 接口按照某个策略将输入数据且分成若干个 split,以便确定 Map Task 的个数即 Mapper 的个数,在 MapReduce 框架中,一个 split 就意味着需要一个 Map Task;

hive.input.format=org.apache.hadoop.hive.ql.io.HiveInputFormat时,hive会先计算splitSize ,然后通过splitSize、任务输入的数据量大小和文件数来共同决定split数量,即map数。
splitSize = max{minSize,min{goalSize,blockSize}}
其中

由上公式可知,在org.apache.hadoop.hive.ql.io.HiveInputFormat接口下,主要是mapreduce.input.fileinputformat.split.minsizemapreduce.job.maps来决定map数

hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat时,主要是如下四个参数起作用:

  1. 首先处理每个Datanode的blockInfo,先按照>=maxsplitsize来切分split,剩余的再按照blockinfo>=minSplitSizeNode切分,其余的等和rack的其余blockinfo进行合并。
  2. 其次对每个Rack进行处理:先按照>=maxsplitsize来切分split,剩余的再按照blockinfo>=minSplitSizeRack切分,其余的等和overflow的其余blockinfo进行合并。
  3. 对于overflow blockInfo直接根据maxsplitsize来进行切分。

1.2 如何调整reduce数

tez on mr模式下reduce数主要受如下两个参数影响:

reducer数 = min(hive.exec.reducers.max,max(1,totalsize/hive.exec.reducers.bytes.per.reducer))

2、hive on tez

2.1、如何调整map数

在运行hive on tez时会发现跟hive on mr的map数差异会比较大,主要原因在于 Tez 中对 inputSplit 做了 grouping 操作,将多个 inputSplit 组合成更少的 groups,然后为每个 group 生成一个 mapper 任务,而不是为每个inputSplit 生成一个mapper 任务。
可以通过调整如下参数来调整grouping数:

2.2、如何调整reduce数

tez on tez模式下reduce数主要受如下两个参数影响:

reducer数 = Max(1, Min(hive.exec.reducers.max, ReducerStage estimate/hive.exec.reducers.bytes.per.reducer))x hive.tez.max.partition.factor

3、其他影响map数和reduce数的情况

3.1 小文件合并

hive.merge.mapfiles = true #在Map-only的任务结束时合并小文件
hive.merge.mapredfiles = true #在Map-Reduce的任务结束时合并小文件
hive.merge.size.per.task = 256*1000*1000 #合并文件的大小
hive.merge.smallfiles.avgsize=16000000 #当输出文件的平均大小小于该值时,启动一个独立的map-reduce任务进行文件merge
上面参数会在任务结束后,如果任务生成的小文件触发了hive.merge.smallfiles.avgsize=会另外再启reduce任务来合并小文件。

3.2 分桶表的影响

如果往分桶表里插入数据,由于hdfs最终会每个桶一个文件,因此在当分桶表设置了多少个桶,最终就会生成多少个reduce任务

3.3 只一个个redecu的情况

3.4 map阶段不支持拆分的情况

有的文件格式并不支持切分,如果hive表的存储的文件格式不支持切分,则在查询该表时,有多少文件就会产生多少map任务。例如,存储格式是text,但是采用了gzip压缩,这种情况下则不支持切分,读表数据时,该表对应的存储目录下有多少个文件就会生成多少个map任务,每个map任务处理一个文件的数据

4、map数和reduce数设置多少最合适?

map数和reduce数并非越多越好,需要综合多少情况来考虑

一般情况下不需要调整map数和reduce数,当单个map执行时间过长时,且map数不多的情况下,就需要通过调整map数,通过提高map数,提高并发来缩短单个map的执行时间,从而缩短整合任务的计算时间。同样reduce阶段单个reduce处理数据量很大,耗时比较长时,而分配的reduce数不多的情况下,也可以通过提高reduce数来减少每个reudce的计算时长。
那单个map执行多少时间为宜:根据在大数据集群上的实践经验,单个map宜在1-2分钟执行完是比较好,如果单个map执行时间太短,会消耗比较多的时间在申请集群资源和初始化资源阶段,反倒影响整体任务效率;如果单个map执行时间太长,长时间占用集群资源,不能及时释放资源,导致其他任务长时间等待,不利于集群计算资源的合理利用。
同样,reduce任务阶段,一般执行会比较长,因此reduce阶段不reduce数不宜太多,一般不超过集群cores数的50%,太多会占用大量集群资源,导致其他任务获取不到资源而排队,同时也会生成过多的文件。

参考文档

上一篇 下一篇

猜你喜欢

热点阅读