StarRocks案例3: 通过[broadcast] 优化慢S

2023-06-01  本文已影响0人  只是甲

一. 问题描述

最近在使用StarRocks的时候,发现一个问题

table_a 10W 左右数据,通过where条件过滤数据后 剩下 10行数据。
table_b 5亿左右数据,通过where过滤条件后 剩下 5kw 数据。

table_a 通过关联字段 与 table_b 进行join,然后再进行group by
table_b join后其实只剩下少量的数据,进行聚合运算,应该也不会太慢。

但是实际情况是 table_b 居然是扫描了 5kw数据后,在于table_a 进行join,每次执行消耗的资源非常大

原始SQL:

with t1 as
(
select  key1, value1
  from table_a 
 order by value1 desc
 limit 10
),
t2 as 
(
select key2,value2,value3,value4
  from table_b
 where value2 > 100
)
select t1.key1,
          sum(t2.value3),
          sum(t2.value4)
   from t2
 join t1
on t1.key1 = t2.key2
group by t1.key1;

运行情况:
扫描数据量: 5千万
执行时间: 15秒

二. 解决方案

通过explain查看了执行计划,发现了table_b 访问的行数太多了
因为explain里面的计划有时候存在偏差,所以还是开启了一个query profile,看到访问的数据量


image.png

调优SQL:

with t1 as
(
select  key1, value1
  from table_a 
 order by value1 desc
 limit 10
),
t2 as 
(
select key2,value2,value3,value4
  from table_b
 where value2 > 100
)
select t1.key1,
          sum(t2.value3),
          sum(t2.value4)
   from t2
 join [broadcast] t1
on t1.key1 = t2.key2
group by t1.key1;
image.png

三. 一些拓展

Join分布式执行选择 :

  1. BroadCast Join:将右表全量发送到左表的HashJoinNode
  2. Shuffle Join:将左右表的数据根据哈希计算分散到集群的节点之中
  3. Colocate Join:两个表的数据分布都是一样的,只需要本地join即可,没有网络传输开销。
  4. Bucket Shuffle Join:join的列是左表的数据分布列(分桶键),所以相比于shuffle join只需要将右表的数据发送到左表数据存储计算节点。
  5. Replicated Join:右表的全量数据是分布在每个节点上的(也就是副本个数和BE节点数量一致),不管左表怎么分布,都是走本地Join。没有网络传输开销。
上一篇下一篇

猜你喜欢

热点阅读