3.Kafka源码深入解析之元数据结构

2021-08-23  本文已影响0人  hoose

前面我们讲到,在KafkaProducer初始化时,初始化了一个非常核心的组件Metadata

this.metadata = new Metadata(retryBackoffMs, config.getLong(ProducerConfig.METADATA_MAX_AGE_CONFIG),
                    true, true, clusterResourceListeners);
this.metadata.update(Cluster.bootstrap(addresses), Collections.<String>emptySet(), time.milliseconds());

这个组件前面也详细说明过,是去broker上 拉取一次集群的元数据过来的,我们知道当一条消息从producer端发送到broker时,一定是先必须知道这条消息所在的leader partitions node的,其实就是要事先知道元数据的,那么看上面的代码,我详细分析一下它的工作原理,以前元数据的数据结构

  1. 首先我们看一下Metadata这个类
public final class Metadata {

    private static final Logger log = LoggerFactory.getLogger(Metadata.class);

    public static final long TOPIC_EXPIRY_MS = 5 * 60 * 1000;
    private static final long TOPIC_EXPIRY_NEEDS_UPDATE = -1L;
    // metadata 更新失败时,为避免频繁更新 meta,最小的间隔时间,默认 100ms
    private final long refreshBackoffMs;
    // metadata 的过期时间, 默认 60,000ms
    private final long metadataExpireMs;
    // 每更新成功1次,version自增1,主要是用于判断 metadata 是否更新
    private int version;
    // 最近一次更新时的时间(包含更新失败的情况)
    private long lastRefreshMs;
    // 最近一次成功更新的时间(如果每次都成功的话,与前面的值相等,
    // 否则,lastSuccessulRefreshMs < lastRefreshMs)
    private long lastSuccessfulRefreshMs;
    private AuthenticationException authenticationException;
    // 集群中一些 topic 的信息
    private Cluster cluster;
    // 是都需要更新 metadata
    private boolean needUpdate;
    // topic 与其过期时间的对应关系
    private final Map<String, Long> topics;
    private final List<Listener> listeners;
    //当接收到 metadata 更新时, ClusterResourceListeners的列表
    private final ClusterResourceListeners clusterResourceListeners;
    // 是否强制更新所有的 metadata
    private boolean needMetadataForAllTopics;
    // 默认为 true, Producer 会定时移除过期的 topic,consumer 则不会移除
    private final boolean allowAutoTopicCreation;
    private final boolean topicExpiryEnabled;

包含的各字段意思上面注解非常详细,大家可以看一下,其中有一个Cluster cluster是什么呢,我们在看:

public final class Cluster {

    private final boolean isBootstrapConfigured;
    /**
     *  关于 topic 的详细信息(leader 所在节点、replica 所在节点、isr 列表)都是在 Cluster 实例中保存的
     * node,Kafka broker节点,一台机器,
     * 包括了:
     *   private final int id; --broker.id
     *     private final String idString;
     *     private final String host; --主机
     *     private final int port;   --port
     *     private final String rack;  --机架
     *
     *   broker.id 与 node 的对应关系;
     *   topic 与 partition (PartitionInfo)的对应关系;
     *   node 与 partition (PartitionInfo)的对应关系。
     */
    //一个kafka集群每个节点
    private final List<Node> nodes;
    /**
     * 没有被授权访问的topic列表,如果你的客户端没有被授权访问某个topic,
     * 就会放在这个列表里
     */
    //没有授权的topic列表
    private final Set<String> unauthorizedTopics;
    //内置的topic列表
    private final Set<String> internalTopics;
    //controller所在node
    private final Node controller;
    /**
     * 代码一个分区,里面就是它的topic名字,以及他在topic里的分区号
     * ,每个分区都有多个副本 ,leader副本 在哪个broker上,follower在哪些
     * broker里,isr列表都在哪
     *    private final String topic;
     *     private final int partition;
     *     private final Node leader;
     *     private final Node[] replicas;
     *     private final Node[] inSyncReplicas;
     *     private final Node[] offlineReplicas;
     */
    //每个分区的信息
    private final Map<TopicPartition, PartitionInfo> partitionsByTopicPartition;
    /**
     * 每个topic有哪些分区
     */
    private final Map<String, List<PartitionInfo>> partitionsByTopic;
    /**
     * 每个topic有哪些当前可用的分区,如果某个分区没有leaeer是存活的,那
     * 此时这个分区不可用
     */
    private final Map<String, List<PartitionInfo>> availablePartitionsByTopic;
    /**
     * 每个broker上有哪些分区
     */
    private final Map<Integer, List<PartitionInfo>> partitionsByNode;
    /**
     * broker.id ->Node
     * brokerid与node对应关系,如broker0 --> node1
     */
    private final Map<Integer, Node> nodesById;
    //kafka的集群id
    private final ClusterResource clusterResource;

这里明白了,这些元数据里的结构了吧,其实可以看到好多信息是冗余了,这正是为了查询数据方便。
接下来我们看一下下面的代码:

this.metadata.update(Cluster.bootstrap(addresses), Collections.<String>emptySet(), time.milliseconds());

可以看到是去更新元数据的,那么它的实现原理是什么呢?

public synchronized void update(Cluster cluster, Set<String> unavailableTopics, long now) {
        Objects.requireNonNull(cluster, "cluster should not be null");

        this.needUpdate = false;
        this.lastRefreshMs = now;
        this.lastSuccessfulRefreshMs = now;
        this.version += 1;

        //默认为true
        if (topicExpiryEnabled) {
            // Handle expiry of topics from the metadata refresh set.
            for (Iterator<Map.Entry<String, Long>> it = topics.entrySet().iterator(); it.hasNext(); ) {
                Map.Entry<String, Long> entry = it.next();
                long expireMs = entry.getValue();
                if (expireMs == TOPIC_EXPIRY_NEEDS_UPDATE)
                    entry.setValue(now + TOPIC_EXPIRY_MS);
                else if (expireMs <= now) {
                    it.remove();
                    log.debug("Removing unused topic {} from the metadata list, expiryMs {} now {}", entry.getKey(), expireMs, now);
                }
            }
        }

        for (Listener listener: listeners)
            listener.onMetadataUpdate(cluster, unavailableTopics);

        String previousClusterId = cluster.clusterResource().clusterId();

        //默认是false
        if (this.needMetadataForAllTopics) {
            // the listener may change the interested topics, which could cause another metadata refresh.
            // If we have already fetched all topics, however, another fetch should be unnecessary.
            this.needUpdate = false;
            this.cluster = getClusterForCurrentTopics(cluster);
        } else {
            /**
             * 直接把传进来的Cluser对象赋值给metadata,其实只有节点信息kafka集群地址
             * 初使化的时候,update方法并没有到broker去拉取元数据
             */
            //这里cluster其实只是获取了我们配置的kafka addresses
            this.cluster = cluster;
        }

        // The bootstrap cluster is guaranteed not to have any useful information
        if (!cluster.isBootstrapConfigured()) {
            String clusterId = cluster.clusterResource().clusterId();
            if (clusterId == null ? previousClusterId != null : !clusterId.equals(previousClusterId))
                log.info("Cluster ID: {}", cluster.clusterResource().clusterId());
            clusterResourceListeners.onUpdate(cluster.clusterResource());
        }
        notifyAll();
        log.debug("Updated cluster metadata version {} to {}", this.version, this.cluster);
    }

可以看到,其实在初始化的时候,metadata并没有去broker拉取元数据信息,只是把我们配置的broker addrss设置进去了。

这里有一个notifyAll(),大家看到了吧,同时看上面的方法,是不是一个synchronized 来修饰的,这里是什么意思呢?
其实这里大家想一下,synchronized 加锁后,同一时间我们只有一个线程可以进入update()来执行,这里也说明是线程安全的,其他的线程进入等待,上面的notifyAll不就是释放锁,唤醒别的线程吗

上面的needMetadataForAllTopics 意思很显示,是否需要把集群所有的topic的元数据都拉取过来呢,默认是false,这里也可以知道我们只需要我们的topic的信息。

上一篇下一篇

猜你喜欢

热点阅读