Flinkalready

Flink - 8 个面试高频实战问题

2022-03-20  本文已影响0人  坨坨的大数据

1.前言

  1. 解决问题的能力:生产环境中,如何快速判断哪个算子存在反压呢?
  2. 解决问题的能力:反压有哪些危害?
  3. 解决问题的能力:经常碰到哪些问题会任务反压?
  4. 解决问题的能力:怎么缓解、解决任务反压的情况?
  5. 数据保障的能力:实时数据延迟是怎么监控的?报警策略又是怎么制定的?
  6. 数据保障的能力:通过什么样的监控及保障手段来保障实时指标的质量?
  7. 原理理解的能力:operator-state 和 keyed-state 两者的区别?最大并行度又和它们有什么关系?举个生产环境中经常出现的案例,当用户停止任务、更新代码逻辑并且改变任务并发度时,两种 state 都是怎样进行恢复的?
  8. 你认为以后 Flink SQL 的发展趋势是 unbounded 类 SQL 为主还是窗口类 SQL 为主?原因?

2.生产环境中,如何快速判断哪个算子存在反压呢?或者说哪个算子出现了性能问题?

将这个问题拆解成多步来分析:

  1. ⭐ 如何知道算子是否有反压?

在 Flink web ui 中,定位到一个具体的算子之后,查看 BackPressure 模块,通过颜色和数值来判断任务的繁忙和反压情况。

若颜色为红色,表示当前算子繁忙,有反压的情况若颜色为绿色,标识当前算子不繁忙,没有反压。

图片
  1. ⭐ 举个实际 Flink 任务案例,这个 Flink 任务中有 Source、FlatMap、Sink 算子,如果 Source 算子有反压,那到底是哪个算子有性能问题呢?

上游算子在 web ui 显示有反压时,一般为下游算子存在性能问题。可以继续往下游排查,如果 FlatMap 也显示有反压,大概率是 Sink 算子存在性能问题;如果 FlatMap 没有显示有反压,大概率是 FlatMap 算子存在性能问题。

  1. ⭐ 大多数时候,Flink 会自动将算子 chain 在一起,那怎么判断具体是哪一个算子有问题?

第一种方式:Flink 提供了断开算子链的能力。

.process(xxx)
.uid("process")
.disableChaining() // 将算子链进行断开
.addSink(xxx)
.uid("sink");

CREATE TABLE source_table (
    order_number BIGINT,
    price        DECIMAL(32,2)
) WITH (
  'connector' = 'datagen',
  'rows-per-second' = '10',
  'fields.order_number.min' = '10',
  'fields.order_number.max' = '11'
);

CREATE TABLE sink_table (
    order_number BIGINT,
    price        DECIMAL(32,2)
) WITH (
  'connector' = 'print'
);

insert into sink_table
select * from source_table
where order_number = 10;

我们来看看一个 SQL 任务在配置 pipeline.operator-chaining: false 前后的差异。

在配置 pipeline.operator-chaining: false 前,可以看到所有算子都 chain 在一起

4

在配置 pipeline.operator-chaining: false 后,可以看到所有算子都没有 chain 在一起

1

第二种方式:在 Flink 1.13 中,提供了火焰图,可以通过火焰图定位问题。火焰图需要配置 rest.flamegraph.enabled: true 打开

3

3.反压有哪些危害?

  1. 任务处理性能出现瓶颈:以消费 Kafka 为例,大概率会出现消费 Kafka Lag。
  2. Checkpoint 时间长或者失败:因为某些反压会导致 barrier 需要花很长时间才能对齐,任务稳定性差。
  3. 整个任务完全卡住。比如在 TUMBLE 窗口算子的任务中,反压后可能会导致下游算子的 input pool 和上游算子的 output pool 满了,这时候如果下游窗口的 watermark 一直对不齐,窗口触发不了计算的话,下游算子就永远无法触发窗口计算了。整个任务卡住。

4.经常碰到哪些问题会任务反压?

总结就是:算子的 sub-task 需要处理的数据量 > 能够处理的数据量。一般会实际中会有以下两种问题会导致反压。

  1. 数据倾斜:当前算子的每个 sub-task 只能处理 1w qps 的数据,而由于数据倾斜,这个算子的其中一些 sub-task 平均算下来 1s 需要处理 2w 条数据,但是实际只能处理 1w 条,从而反压。比如有时候 keyby 的 key 设置的不合理。
  2. 算子性能问题:下游整个整个算子 sub-task 的处理性能差,输入是 1w qps,当前算子的 sub-task 算下来平均只能处理 1k qps,因此就有反压的情况。比如算子需要访问外部接口,访问外部接口耗时长。

5.怎么缓解、解决任务反压的情况?

  1. 事前:解决上述介绍到的 数据倾斜算子性能 问题。
  2. 事中:在出现反压时:

6.实时数据延迟是怎么监控的?报警策略又是怎么制定的?

几乎我问到的所有的小伙伴都能回到到 Flink 消费 Source 的 Lag 监控,我们可以把这个监控项升级一下,即 Kafka 到 Flink 延迟。原因如下:

以 Flink 消费 Kafka 为例,几乎所有的任务性能问题都最终能反映到 Kafka 消费 Flink 延迟,所以几乎 100% 的任务性能问题都能由 Kafka 到 Flink 延迟 这个监控发现。

大家可以没有其他监控手段,但是这一项非常建议搞

当然也有小伙伴问,具体的实操时,监控项应该怎么设置呢?

很多小伙伴也回答到:Flink 本地时间戳 - Kafka 中自带的时间戳

这时候有小伙伴提到,这个只能反映出 Flink 消费 Kafka 的延迟,那具体数据上的延迟怎么反映出来呢。

群里有小伙伴也回达到:Flink 本地时间戳 - 数据事件时间戳

不说了,小伙伴萌都是 YYDS。

7.通过什么样的监控及保障手段来保障实时指标的质量?

当我提出这个问题的时候。群里的小伙伴给出了建设性意见:

那就是:等着用户工单投诉

但是在博主的正确引导之下,小伙伴萌走上了正轨

这里总结群里小伙伴的一些意见,得出了一个大多数企业都可以 快速构建 实时数据质量保障体系,从 事前、事中、事后 x 任务层面、指标层面 进行监控、保障:

  1. 事前
  1. 事中
  1. 事后

8.operator-state 和 keyed-state 两者的区别?

详细描述一下上面的问题:

operator-state 和 keyed-state 两者的区别?最大并行度又和它们有什么关系?举个生产环境中经常出现的案例,当用户停止任务、更新代码逻辑并且改变任务并发度时,两种 state 都是怎样进行恢复的?

  1. 总结如下:
7
  1. operator-state:
9 10 图片
  1. keyed-state:
图片
上一篇 下一篇

猜你喜欢

热点阅读