zookeeper+Kafka+kafkaManager环境搭建

2018-06-19  本文已影响0人  追杀丘比特

Kafka集群环境需要以下环境支持:

  1. Java环境(kafka新版本要求Java8)
  2. Zookeeper环境

Java环境搭建

按照相关教程搭建java环境

zookeeper环境搭建

  1. 搭建好Java环境
  2. 官网下载zookeeper tar包,地址,我下载的是zookeeper-3.4.10.tar.gz
  3. 将下载下来的压缩包上传到指定服务器相关目录(/data/bigdata),并解压,命令:
[root@localhost bigdata]# tar -zxvf zookeeper-3.4.10.tar.gz  #解压
[root@localhost bigdata]# cd zookeeper-3.4.10  
[root@localhost zookeeper-3.4.10]# mv conf/zoo_sample.cfg zoo.cfg  #重命名配置文件
  1. 修改配置文件,主要修改以下几个地方:
# 数据文件存放地址
dataDir=/data/bigdata/zookeeper-3.4.10/data
# log 文件存放地址
dataLogDir=/data/bigdata/zookeeper-3.4.10/log
# 端口
clientPort=2181

# 监听端口
server.1=192.168.19.25:2888:3888  #192.168.19.25 server id为1
server.2=192.168.19.32:2888:3888  #192.168.19.32 server id为2
server.3=192.168.19.33:2888:3888  #192.168.19.33 server id为3
  1. 新建数据存放文件的data目录(配置文件中dataDir所指向的路径):
[root@localhost zookeeper-3.4.10]# mkdir data #新建data目录
[root@localhost data]# vi myid #新建myid文件
[root@localhost data]# echo 1>>myid  #写入server1的id为1
  1. 将server1的zookeeper包拷贝到32和33
[root@localhost zookeeper-3.4.10] scp -r ../zookeeper-3.4.10 root@192.168.19.32:/data/bigdata  #拷贝到32
[root@localhost zookeeper-3.4.10] scp -r ../zookeeper-3.4.10 root@192.168.19.33:/data/bigdata  #拷贝到33

分别将zookeeper data目录下的myid文件作相应的修改(32的myid修改为2,33的myid修改为3)

  1. 启动zookeeper:
[root@localhost zookeeper-3.4.10]# bin/zkServer.sh start

分别启动三台server,使用jps命令看到如下进程

[root@localhost data]# jps
4119 QuorumPeerMain
19147 Jps

表示zookeeper启动完成。

kafka环境部署

  1. 下载kafka压缩包,地址
  2. 上传到对应服务器的相关目录,比如/data/bigdata,并解压缩
  3. 修改配置文件,配置文件在config/server.properties,主要修改以下位置:
# broker.id参数,需保证同一集群内参数唯一,integer
broker.id=32

listeners=PLAINTEXT://192.168.19.32:9092
host.name=192.168.19.32

advertised.listeners=PLAINTEXT://192.168.19.32:9092

max.request.size=50000000

# kafka 数据存放目录
log.dirs=/data/bigdata/kafka/kafka-logs

# 数据存放时间
log.retention.hours=24

# zookeeper连接地址
zookeeper.connect=192.168.19.25:2181,192.168.19.32:2181,192.168.19.33:2181

# Timeout in ms for connecting to zookeeper
zookeeper.connection.timeout.ms=6000

# 删除topic
delete.topic.enable=true
# 自动创建topic
auto.create.topics.enable=false

# topic一次存取的最大数据量
message.max.byte=52428800

其他几台服务器作相应的修改,但必须保证broker.id参数在一个kafka集群里唯一!

  1. kafka内存分配
    kafka对内存的要求不是特别高,默认1G,可以根据服务器的实际情况分配内存大小,修改位置:
[root@localhost kafka]# vi bin/kafka-server-start.sh
...
if [ "x$KAFKA_HEAP_OPTS" = "x" ]; then
    export KAFKA_HEAP_OPTS="-Xmx4G -Xms4G"  ##修改内存大小,这里修改为4G
fi
...

5.启动kafka,分别在各台服务器启动kafka进程

[root@localhost kafka]# bin/kafka-server-start.sh -daemon config/server.properties #后台启动kafka进程
  1. 使用jps命令查看进程:
[root@localhost kafka]# jps
20754 Jps
18422 Kafka
4119 QuorumPeerMain

表示kafka启动成功!

kafka manager安装

kafka manager用于查看kafka集群,以及针对kafka的topic进行一些配置工作,安装相当简单:

  1. 下载安装包,地址
  2. 解压该zip包并上传至服务器相关目录
drwxr-xr-x.  7 root   root    143 Jul  2 16:54 kafka-manager
  1. 修改配置文件conf/application.conf添加kafka的zookeeper地址,如下:
kafka-manager.zkhosts="192.168.19.25:2181,192.168.19.32:2181,192.168.19.33:2181"
  1. 启动kafkaManager
[root@localhost kafka-manager]# nohup bin/kafka-manager &
  1. 访问http://[hostip]:9000即可
上一篇下一篇

猜你喜欢

热点阅读