Hive

从一个锁表问题了解hive锁机制

2019-03-14  本文已影响0人  gregocean

同事遇到一个问题,无论从平台哪里提交Hive SQL,都没有进度,没有日志。
鉴于之前已有类似反馈,检查SQL涉及到的表的锁,

show locks xxx_table; // hive sql

发现有若干shared锁,对表进行解锁操作

unlock table xxx_table; // hive sql

但是重新执行sql依然有锁表现象,sql主干如下(查出分区表B中某天用户,且不在历史表A中存在,执行前已add partition)

insert into table  A partition(dt='20190131')
SELECT DISTINCT user_id, date FROM B WHERE dt='20190131'
and a.user_id not in
(select user_id from A);

发现不仅是无法插入,其中select user_id from A语句也无法执行,因为是测试表,就重建了(事后估计是多个分区被锁了,而且有X锁,只解锁表并不能递归对各分区解锁)。重建后select disctinct...这整段语句会GC memory exceeded,便改写成如下框架(窗口函数去重替换distinct、外连接替换in):

insert overwrite table A partition(dt='20190131')
select tmpa.user_id from 
(
  select tmp.user_id as user_id, tmp.date as date from
  (
  select t.*,  row_number() over(partition by t.user_id order by t.date desc) as rn
   from  (select * from B WHERE dt='20190131' ) t
  ) tmp where tmp.rn=1
) tmpB
left outer join
(
  select user_id from  A
) tmpA
on tmpA.user_id=tmpB.user_id
where tmpA.user_id is null;  // 其实最好用left semi join

这样select语句可以跑了,但是整句sql依然锁表。

看了一下资料
Hive Lock 那些事儿
官方文档
https://www.cnblogs.com/barneywill/p/10185577.html

发现select .. T1 partition P1语句需要T1, T1.P1上的S锁,那么对整张分区表的select需要所有分区的S锁

回到语句,join操作依赖A表的S锁,但最终要写入A表的一个新分区,又要加X锁,造成了死锁。所以需要让A表待写入的分区不加S锁

insert overwrite table A partition(dt='20190131')
select tmpa.user_id from 
(
  select tmp.user_id as user_id, tmp.date as date from
  (
  select t.*,  row_number() over(partition by t.user_id order by t.date desc) as rn
   from  (select * from B WHERE dt='20190131' ) t
  ) tmp where tmp.rn=1
) tmpB
left outer join
(
  select user_id from  A  where dt!='20190131' // 添加分区排除条件
) tmpA
on tmpA.user_id=tmpB.user_id
where tmpA.user_id is null;

成功执行。

另外,在SQL执行前设置hive参数set hive.support.concurrency=false; 可强制忽略锁,但为了数据完整性,不建议常用此操作。

上一篇下一篇

猜你喜欢

热点阅读