2.kafka部署

2022-12-02  本文已影响0人  呦丶耍脾气

kafka生态圈

Apache Kafka

环境

kafka:3.2.1
os:CentOS Linux/7
JDK:1.8.0_291

注意,kafka 3.3.1 要求本地环境安装 Java 8 及以上版本,本文档安装的java11,kafka4.0将会启用java8

安装kafka

 sudo tar zxvf kafka.tgz -C /opt/module/
sudo mv /opt/module/kafka_2.12-3.3.1 /opt/module/kafka
 mkdir logs
cd config/
vi server.properties

参考配置文件如下

#broker的全局唯一编号,不能重复,集群的话每个虚拟机不重复
broker.id=0
#删除topic功能使能
delete.topic.enable=true
#处理网络请求的线程数量
num.network.threads=3
#用来处理磁盘IO的现成数量
num.io.threads=8
#发送套接字的缓冲区大小
socket.send.buffer.bytes=102400
#接收套接字的缓冲区大小
socket.receive.buffer.bytes=102400
#请求套接字的缓冲区大小
socket.request.max.bytes=104857600
#kafka运行日志存放的路径 
log.dirs=/opt/module/kafka/logs
#topic在当前broker上的分区个数
num.partitions=1
#用来恢复和清理data下数据的线程数量
num.recovery.threads.per.data.dir=1
#segment文件保留的最长时间,超时将被删除
log.retention.hours=168
#配置连接Zookeeper集群地址
zookeeper.connect=hadoop102:2181,hadoop103:2181,hadoop104:2181/kafka

接下来,我们启动 broker 的部分,需要按照顺序依次启动 zookeeper 和 kafka server。

bin/zookeeper-server-start.sh -daemon config/zookeeper.properties #kafka目录执行
bin/kafka-server-start.sh -daemon config/server.properties #kafka目录执

执行以下命令:

# 创建topic
bin/kafka-topics.sh --create --topic quickstart-events --bootstrap-server localhost:9092
# 查询topic  
bin/kafka-topics.sh --describe --topic quickstart-events --bootstrap-server localhost:9092
bin/kafka-topics.sh  --bootstrap-server localhost:9092 --list
# 删除topic  
bin/kafka-topics.sh --delete --topic quickstart-events #需要server.properties中设置delete.topic.enable=true否则只是标记删除或者直接重启 
#修改topic



partition:分区索引,注:分区数修改的只能+不能-
leader:1代表kafka配置中设置的broker.id
Replicas:1 代表开启的副本数【kafka服务】对应的broker.id

bin/kafka-console-producer.sh --topic quickstart-events --bootstrap-server localhost:9092

ctrl+c退出
接着,我们使用 console-consumer 读 event。可以看到,刚写的 event 被读到了。
#--from-beginning代表从开始读取,即开启之前的也会读取
bin/kafka-console-consumer.sh --topic quickstart-events --from-beginning --bootstrap-server localhost:9092

我们可以在两个会话中保持 producer 和 consumer 不退出,当我们在 producer 写入 event 时, consumer 将实时读取到。


bin/kafka-server-stop.sh

Kafka命令
kafka-topics.sh --zookeeper hadoop102:2181 --list

docker中安装

可以参考docker仓管库kafka

app-tier:网络名称
–driver:网络类型为bridge

docker network create app-tier --driver bridge

kafka依赖zookeeper所以先安装zookeeper
-p:设置映射端口(默认2181)
-d:后台启动

docker run -d --name zookeeper-server \
    --network app-tier \
    -e ALLOW_ANONYMOUS_LOGIN=yes \
    bitnami/zookeeper:latest

–name:容器名称
-p:设置映射端口(默认9092 )
-d:后台启动
ALLOW_PLAINTEXT_LISTENER任何人可以访问
KAFKA_CFG_ZOOKEEPER_CONNECT链接的zookeeper
KAFKA_ADVERTISED_HOST_NAME当前主机IP或地址(重点:如果是服务器部署则配服务器IP或域名否则客户端监听消息会报地址错误)
-e KAFKA_CFG_ADVERTISED_LISTENERS=PLAINTEXT://192.168.0.101:9092 \

docker run -d --name kafka-server \
    --network app-tier \
    -p 9092:9092 \
    -e ALLOW_PLAINTEXT_LISTENER=yes \
    -e KAFKA_CFG_ZOOKEEPER_CONNECT=zookeeper-server:2181 \
    -e KAFKA_CFG_ADVERTISED_LISTENERS=PLAINTEXT://192.168.172.131:9092 \
    bitnami/kafka:latest

访问地址:http://服务器IP:9002/
DEFAULT_USERNAME:默认账号admin
DEFAULT_PASSWORD:默认密码admin
Git 地址:https://github.com/dushixiang/kafka-map/blob/master/README-zh_CN.md

docker run -d --name kafka-map \
    --network app-tier \
    -p 9002:8080 \
    -v /home/yzj/kafka-map/data:/usr/local/kafka-map/data \
    -e DEFAULT_USERNAME=admin \
    -e DEFAULT_PASSWORD=admin \
    --restart always dushixiang/kafka-map:latest
上一篇 下一篇

猜你喜欢

热点阅读