Kafka概述

2023-02-16  本文已影响0人  CoderInsight

1.Kafka概述

(1),Kafka定义

(2),kafka集群架构

kafka集群架构信息.png

(3).kafka集群核心概念

1).Topic(主题)

2).Producer(生产者)

3).Consumer(消费者)

4).Consumer Group(消费者组)

Consumer Group 是kafka提供的可拓展的具有容错性的消费者机制。

5).Broker(服务代理)

6).Partiton(分区)

7).Segment(段)

Segment 被译为段,将 Partition 进一步细分为若干个 Segment,每个 Segment 文件的大小相等。

8),ISR(In-Sync Replica)列表

ISR(In-Sync Replica):是Replicas的一个子集,表示目前Alive且与Leader能够“Catch-up”的Replicas集合。由于读写都是首先落到Leader上,所以一般来说通过同步机制从Leader上拉取数据的Replica都会和Leader有一些延迟(包括了延迟时间和延迟条数两个维度),任意一个超过阈值都会把该Replica踢出ISR。每个Partition都有它自己独立的ISR。

(4).Kafka和Zookeeper如何配合工作

kafka严重依赖于zookeeper集群。所有的broker在启动的时候都会往zookeeper进行注册,目的就是选举出一个controller,这个选举过程非常简单粗暴,就是一个谁先谁当的过程,不涉及什么算法问题。
那成为controller(主节点)之后要做啥呢,它会监听zookeeper里面的多个目录,例如有一个目录/brokers/,其他从节点往这个目录上注册(就是往这个目录上创建属于自己的子目录而已)自己,这时命名规则一般是它们的id编号,比如/brokers/0,1,2。
注册时各个节点必定会暴露自己的主机名,端口号等等的信息,此时controller就要去读取注册上来的从节点的数据(通过监听机制),生成集群的元数据信息,之后把这些信息都分发给其他的服务器,让其他服务器能感知到集群中其它成员的存在。
此时模拟一个场景,我们创建一个主题(其实就是在zookeeper上/topics/topicA这样创建一个目录而已),kafka会把分区方案生成在这个目录中,此时controller就监听到了这一改变,它会去同步这个目录的元信息,然后同样下放给它的从节点,通过这个方法让整个集群都得知这个分区方案,此时从节点就各自创建好目录等待创建分区副本即可。这也是整个集群的管理机制。

(5),kafka核心模块解析

1565339628812-1595217438986.png

1),Producer API

它允许应用程序向一个或多个 Topics 上发送消息记录。

2),Consumer API

允许应用程序订阅一个或多个 Topics 并处理为其生成的记录流。

3),Streams API

它允许应用程序作为流处理器,从一个或多个主题中消费输入流并为其生成输出流,有效的将输入流转换为输出流。

4),Connector API

它允许构建和运行将 Kafka 主题连接到现有应用程序或数据系统的可用生产者和消费者。例如,关系数据库的连接器可能会捕获对表的所有更改。

(6),Kafka的日志类型

其他核心模块预览

核心模块预览.png
上一篇下一篇

猜你喜欢

热点阅读