kafka docker安装

2018-08-13  本文已影响0人  郭_4d5f

在Docker环境搭建Kafka server

使用的镜像:wurstmeister/zookeeperwurstmeister/kafka

准备工作

version: '2'
services:
  zookeeper:
    image: wurstmeister/zookeeper
    ports:
      - "2181:2181"
  kafka:
    image: wurstmeister/kafka
    ports:
      - "9092"
    environment:
      KAFKA_ADVERTISED_HOST_NAME: 192.168.100.129
      KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181
    volumes:
      - /var/run/docker.sock:/var/run/docker.sock
  nginx:
    image: nginx
    ports:
      - "9094:9094"
    links:
      - kafka
    volumes:
      - /data/docker/kafka-server/nginx.conf:/etc/nginx/nginx.conf

注意nginx的数据卷配置,指向下一步的nginx配置文件

在相同路径下放置一个nginx配置文件,并在其中加入以下配置:

stream {
    upstream kafka {
        server kafkaserver_kafka_1:9092;
        server kafkaserver_kafka_2:9092;
        server kafkaserver_kafka_3:9092;
    }
 
    server {
        listen 9094;
        proxy_pass kafka;
    }
}

其中upstream的内容根据实际要创建的集群数量和名称来定,并非不变的,目前也没有什么办法可以绕过这个配置

创建和启动容器

进入docker-compose.yml所在路径,执行:

nohup docker-compose up --scale kafka=3 &

这里scale表示集群中实例的数量,若不使用此参数则为单实例,本例中设置为kafka=3表示集群包含3个kafka实例

执行成功后即可使用docker ps看到自动创建了nginx、zookeeper和kafka容器,确认运行状态是否正常。

image2017-11-10_18-55-37.png

本例中可以看到创建了3个kafka实例,对外映射端口号分别为9032、9033、9034,访问其中任意一个端口都是对集群的访问,没有差别。但每次重启容器,这几个端口都会变化,因此不推荐使用。

同时因为使用了nginx,并配置了对三个kafka实例的反向代理,对外映射了唯一一个固定端口9094,因此实际使用推荐使用这个9094端口,即使容器重启或重建,这个端口也不会变化。便于应用访问。

普通的docker 搭建

docker run -it -d --restart=always -p 2181:2181  -p 2888:2888 -p 3888:3888 --name=zookeeper \
-v /home/zookeeper/logs:/logs \
-v /home/zookeeper/conf:/conf \
-v /home/zookeeper/data:/data \
-v /etc/localtime:/etc/localtime \
-v /etc/timezone:/etc/timezone \
-d zookeeper:latest

docker run -it -d --restart=always -p 9092:9092 --name kafka \
-e KAFKA_BROKER_ID=0 \
-e KAFKA_ZOOKEEPER_CONNECT=192.168.84.128:2181 \
-e KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://192.168.84.128:9092 \
-e KAFKA_LISTENERS=PLAINTEXT://0.0.0.0:9092 \
-v /home/kafka/config:/opt/kafka_2.12-2.1.1/config \
-v /home/kafka/logs:/opt/kafka_2.12-2.1.1/logs \
-v /etc/localtime:/etc/localtime \
-v /etc/timezone:/etc/timezone \
-d wurstmeister/kafka:latest

因为使用了挂载,所以需要把映射对应的路径中的配置文件先从docker容器中copy出来
然后再进行挂载,否则直接执行,docker是无法启动成功的

日常维护

关闭集群可以使用docker-compose stop,也可以使用docker原生命令挨个关闭容器。

启动集群仍然使用docker-compose up,也可以使用docker原生命令挨个启动容器。需要注意由于kafka依赖zookeeper才能运行,所以要先启动zookeeper

docker-compose其他的命令也可以使用,只要配置文件正确,就可以保证整个服务正常运行

注意事项

本例中配置了3个kafka实例组成的集群,理论上来说,其中任意一个节点宕机应不影响整个集群的运行。

然而实际上,由于使用了nginx的固定配置做负载均衡,再加上kafka的客户端的连接管理实现方式问题,导致任意一个节点宕机都可能使“部分”生产者或消费者无法连接,具体哪些不好用是随机的。

因此当前的集群搭建方案仍不是最终方案,将继续学习文档,可能利用docker-swarm实现更合理的集群。

上一篇下一篇

猜你喜欢

热点阅读