Flink大数据中间件

flink解析之state

2019-08-13  本文已影响0人  神奇的考拉

一。 概述

在流计算场景中,数据没有边界源源不断的流入的,每条数据流入都可能会触发计算,比如在进行count或sum这些操作,是选择每次触发计算将所有流入的历史数据重新计算一边还是每次计算都基于上次计算结果进行增量计算呢? 从综合考虑角度,很多人都会 选择增量计算,那么问题就产生了:上一次的中间计算结果保存在哪里?内存?这其中会由于本身的网络,硬件或软件等问题造成某个计算节点失败,对应的上次计算结果就会丢失,在节点恢复时,是需要将所有历史数据重新计算一遍的,对于这样的结果大家是很难接受的。

二。flink中state

而在flink中提出了state用来存放计算过程的节点中间结果或元数据等,并提供Exactly-Once语义,例如:执行aggregation时在state中记录中间聚合结果,再如从kafka中摄取记录时,是需要记录对应的partition的offset,而这些state数据在计算过程中会进行持久化的。state就变成了与时间相关的是对flink任务内部数据的快照。
由于流计算大多数场景下都是增量计算的,数据逐条被处理,每次当前结果都是基于上一次计算结果之上进行处理的,这也势必要将上一次的计算结果进行存储持久化,无论是机器,网络,脏数据等原因导致的程序错误,都能在job进行任务恢复时提供支持。基于这些已被持久化的state,而非将历史的数据重新计算一遍。
在flink内部提供三种state存储实现

三。operator state与keyedstate相关

3.1 state 分类

从operator和data两个角度可将state划分为2类

3.2 state扩容重新分配

在flink中每一个并行运算操作实例就是一个独立的任务,可以在机器上调度到网络中其他的机器;并且flink能够进行大规模的有状态流处理,在逻辑上将这些分割成不同operator graph,同时operator也将被物理分解成多个操作实例。在flink的DAG图中随着data流向,垂直方向存在网络io,而水平方向的stateful节点间是没有网络通信的,这样每个operator维护一份自己本地的state,并保存在本地磁盘。
比如source有5个partition,将source并行度1->2,中间stateful operator并行度2->3,结果如下图:


扩容分布图

分析结果如下:在flink中不同的state有不同的扩容方法

public abstract class FlinkKafkaConsumerBase<T> extends RichParallelSourceFunction<T> implements
        CheckpointListener,
        ResultTypeQueryable<T>,
        CheckpointedFunction

看到在代码内部使用ListState:ListState<Tuple2<KafkaTopicPartition, Long>>

@PublicEvolving
public interface ListState<T> extends MergingState<T, Iterable<T>> {
    void update(List<T> values) throws Exception;

    void addAll(List<T> values) throws Exception;
}

通过源码可以看到ListState具体定义,T是Tuple2<KafkaTopicPartition,Long>说明了state存储了当前partition及其offset信息的列表,KafkaTopicPartition代表一个partition,Long代表当前partition的offset,
当source并行度=1,代表所有的partition都在同一个线程中读取,对应所有的partition的state也在同一个state维护:如下图


state存储信息

当把source并行度=2,对应的operator并行度=3,先看下parition与subtask之间的映射方法:
首先根据topic的hash值得到当前的index开始点,进行对齐,接着对当前operator的subtasks进行取模,得到的结果即为当前partition分配的subtask的index

public static int assign(KafkaTopicPartition partition, int numParallelSubtasks) {
        int startIndex = ((partition.getTopic().hashCode() * 31) & 0x7FFFFFFF) % numParallelSubtasks;

        // here, the assumption is that the id of Kafka partitions are always ascending
        // starting from 0, and therefore can be used directly as the offset clockwise from the start index
        return (startIndex + partition.getPartition()) % numParallelSubtasks;
    }
state扩容后

可以发现通过Operator使用List<T>作为state的存储结构,是很容易解决这类state扩容的,不过有一点source扩容后的parallelism是否可以超过Source物理存储上的partition个数?这样会造成资源的浪费,超过partition的并发永远分配不到待处理的partition。

public class KeyGroupRange implements KeyGroupsList, Serializable {
        ...
        ...
        private final int startKeyGroup;
        private final int endKeyGroup;
        ...
        ...
}

在KeyGroupRange中:startKeyGroup和endKeyGroup用来定义Operator关联的Key-Group个数。
不过参考flink源码可看到key-group在job启动之前对应的数量是需要确定并且运行中是不可变的。本身Operator的最大并行度<= key-group个数,每个Operator实例都会有自己的state,每个state关联至少一个key-group

       ...
    public static int assignToKeyGroup(Object key, int maxParallelism) {
        return computeKeyGroupForKeyHash(key.hashCode(), maxParallelism);
    }
        ...
    ...
    public static int computeKeyGroupForKeyHash(int keyHash, int maxParallelism) {
        return MathUtils.murmurHash(keyHash) % maxParallelism;
    }
        ...

其实从分配key到key-group利用key的hash值与maxParallelism进行取模来完成的。比如parallelism=2 maxParallelism=10


key-state

如上图比如key=a对应hash(a)=97, hash(a) % 10 = 7则分配到KG-7,其他的以此类推。
flink源码中针对分配到key-group的操作如下:

public static KeyGroupRange computeKeyGroupRangeForOperatorIndex(
        int maxParallelism,
        int parallelism,
        int operatorIndex) {

        checkParallelismPreconditions(parallelism);
        checkParallelismPreconditions(maxParallelism);

        Preconditions.checkArgument(maxParallelism >= parallelism,
            "Maximum parallelism must not be smaller than parallelism.");
                //  当前operator实例
        int start = ((operatorIndex * maxParallelism + parallelism - 1) / parallelism);
                // 当前operator下一个实例的位置
        int end = ((operatorIndex + 1) * maxParallelism - 1) / parallelism;
        return new KeyGroupRange(start, end);
    }

如上代码就是用于将operator(已指定parallelism和maxparallelism)对应的key-groups进行分配,计算当前keygroup的start,end:先计算每个Operator实例至少分配的Key-Group个数,将不能整除的部分N个,平均分给前N个实例。最终每个Operator实例管理的Key-Groups会在GroupRange中表示,本质是一个区间值;实例图如下:


样例解析图

1.当parallelism=2时可得到KeyGroupRange:
operatorIndex=0,则得到start=0, end=4:如图kg-keys:0,1,2,3,4
operatorIndex=1,则得到start=5,end=9:如图kg-keys:5,6,7,8,9

2.当parallelism=3时可得到KeyGroupRange:
operatorIndex=0,则得到start=0, end=3:如图kg-keys:0,1,2,3
operatorIndex=1,则得到start=4,end=6:如图kg-keys:4,5,6
operatorIndex=2,则得到start=7, end=9:如图kg-keys:7,8,9

一旦当job修改了maxParallelism的值那么会直接影响到Key-Groups的数量和key的分配,也会打乱所有的Key-Group的分配,目前在Apache Flink系统中统一将maxParallelism的默认值调整到4096,最大程度的避免无法扩容的情况发生。

上一篇 下一篇

猜你喜欢

热点阅读