Kafka 集群教程,及若干配置说明

2020-11-02  本文已影响0人  山间草夫

前置需求

192.168.17.81 zk01 kafka1
192.168.17.82 zk02 kafka2 
192.168.17.83 zk03 kafka3 

安装教程

  1. \color{#FF0000}{下载 kafka 安装包,并且分发安装包到另外2台机器}
    打开 kafka 发行版的下载页面 http://kafka.apache.org/downloads, 这里有很多的版本, 我们选取最新的一个版本下载
cd /opt/soft
wget https://www.apache.org/dyn/closer.cgi?path=/kafka/2.6.0/kafka_2.12-2.6.0.tgz
scp  kafka_2.12-2.6.0.tgz root@zk02:/opt/soft/
scp  kafka_2.12-2.6.0.tgz root@zk03:/opt/soft/
  1. \color{#FF0000}{修改 hosts }
    • 解压文件
# 3台机器分别执行解压命令,和软连接命令
tar -zxvf  kafka_2.12-2.6.0.tgz && ln -s /opt/soft/kafka_2.12-2.6.0 kafka
# 进入kafka 
cd kafka
# 这里的id , 3台机器必须不同
broker.id=0
# 这是新增的配置, 让topic 能够删除
delete.topic.enable=true
# 新增的配置, 配置3 台机器的zk
zookeeper.connect=zk01:2181,zk02:2181,zk03:2181
# 修改配置
listeners=PLAINTEXT://=zk01:9092

将这个文件分发到另外2台机器对应的目录, 然后 3台机器不同的地方主要是:

  1. \color{#FF0000}{常用命令}
    如下:

    • 启动: /opt/soft/kafka/bin/kafka-server-start.sh -daemon config/server.properties
    • 关闭: bin/kafka-server-stop.sh stop
    • 查看所有的 topic: bin/kafka-topics.sh --zookeeper zk01:2181 --list , 这里的 zk01,
    • 创建topic: bin/kafka-topics.sh --zookeeper zk01:2181 --create --replication-factor 3 --partitions 1 --topic bade , 这里的zk01 是你zk的机器, replication-factor 定义复本数量,partitions 定义分区数量
    • 删除topic: bin/kafka-topics.sh --zookeeperhadoop102:2181 --delete --topic first , 注意: 如果 你在 config/server.properties 里面没有定义 delete.topic.enable=true, 那么 topic 只是标记删除了
    • 指定topic 发送消息: bin/kafka-console-producer.sh --broker -list hadoop102:9092 --topic first , 注意这里的first 是topic 的名称
    • 指定topic 消费消息: bin/kafka-console-consumer.sh --zookeeper hadoop102:2181 --topic first
    • 查看Topic详情: bin/kafka-topics.sh --zookeeper 192.168.17.81:2181 --describe --topic first , 这里的first 是topic名称
    • 修改topic 分区数量: bin/kafka-topics.sh --zookeeper 192.168.17.81:2181 --alter --topic first --partitions 6
  2. \color{#FF0000}{kakfa 配置说明}
    如下:
    1. 在我们生产环境中的ack 配置 是0. 不等待broker的ack, 提供一个最低的延迟, broker 没有写入磁盘就已经返回,可能丢失数据.
    2. ack = 1, 当partition的leader 的数据落盘就返回,如果在follower 同步成功之前leader 故障可能丢失诗句
    3. ack = -1, 当partition的leader 和follower 全部落地后才会返回ack, 如果在follower 同步完成后, broker 发送ack 之前 leader 发生故障, 那么将会造成重复

  3. \color{#FF0000}{故障处理细节}

log文件的HW和LEO

LEO : LOG END OFFSET 每个复本最大的offset

HW: 指的是消费者能够见到的最大的offset, ISR 最小的LEO.

6 . \color{#FF0000}{测试consumer 是否重复消费的情况}

```
在2台机器上执行(下面的ip要修改成自己机器的IP)
bin/kafka-console-consumer.sh --bootstrap-server 192.168.17.82:9092 --topic bade --consumer.config config/consumer.properties

```

如果发生这个错误

(id: -3 rack: null) disconnected (org.apache.kafka.clients.NetworkClient)

bin/kafka-console-consumer.sh --bootstrap-server 192.168.17.82:2181 --topic first --consumer.config config/consumer.properties

端口号的问题,以前启动消费者的时候监听的端口是 2181,但是新版本的kafka对zookeeper的依赖没有那么强烈了,所以改成了自己的 9092。

bin/kafka-console-consumer.sh --bootstrap-server 192.168.17.82:9092,192.168.17.82:9092,192.168.17.83:9092 --topic first --consumer.config config/consumer.properties
bin/kafka-console-producer.sh --broker-list 192.168.17.81:9092 --topic first

你会发现consumer 的控制台显示的消息没有重复显示

上一篇 下一篇

猜你喜欢

热点阅读