Hadoop

Kafka 0.8.2.1部署运维指南

2016-08-07  本文已影响842人  openex

相关约定

1.kafka安装在/usr/local下

2.数据目录保存在/data*/kafka-logs下

3.运行日志保存在/data0/kafka_runlog

4.建议使用内存大,磁盘多,带宽高的机器

5.zookeeper地址 : Zookeeper_address/kafka/业务号


一.下载安装

  • su root
  • cd /usr/local
  • tar xvf kafka_2.11-0.8.2.1.tgz
  • ln -s ln -s kafka_2.11-0.8.2.1 kafka

二.配置

本文仅介绍重要的配置项和部分优化参数,具体不同的优化项请根据实际业务需求设定

详细配置请参考http://kafka.apache.org/082/documentation.html

  • cd /usr/local/kafka
  • vim config/server.properties

重要配置:

粗体部分若配置错误,可能导致无法启动

配置项 推荐值 作用
broker.id 自行规划 broker唯一区分名
port Default(9092) 工作端口
num.network.threads 不应大于本机逻辑核心数 最大网络处理线程数
num.io.threads 应大于等于使用磁盘数 最大io线程数
socket.send.buffer.bytes 1048576 socket连接发送缓存
socket.receive.buffer.bytes 1048576 socket连接接收缓存
log.dirs PATH1,PATH2...请参照约定 数据保存位置
log.retention.hours 12 数据保存时间(小时)
log.retention.check.interval.ms 300000 数据文件保存超时检查时间
replica.lag.max.messages 800000 replica与leader消息lag阈值
replica.socket.timeout.ms 30000 判断replica是否存活的阈值
replica.fetch.wait.max.ms 800 leader与replica间数据同步超时时间
zookeeper.connect 参照相关约定 所依赖zookeeper地址
controlled.shutdown.enable true 开启后,执行shutdown时,broker主动将自己有leader身份的partition转移给ISR里的其他broker
zookeeper.connection.timeout.ms 1000000 broker与zookeeper连接超时阈值,设置较大防止zookeeper leader宕机时的zookeeper不可用问题造成影响
delete.topic.enable true 是否允许删除topic
auto.create.topics.enable false 是否允许api自动创建topic

日志存储配置

  • vim bin/kafka-run-class.sh
  • mkdir /data0/kafka_runlog
  • 找到LOG_DIR="$base_dir/logs",将其修改为LOG_DIR="/data0/kafka_runlog"

三、运行:

  • cd /usr/local/kafka
  • bin/kafka-server-start.sh config/server.properties &

四、常用运维命令:

  • 创建topic:

bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication 2 --topic test1 --partition 1

--creat 创建topic

--replication-factor 每个partition需要的replica数目,

-- zookeeper zookeeper地址

--topic 设置topic名字

--parition 为此topic创建多少个partition

bin/kafka-topics.sh --list --zookeeper localhost:2181

bin/kafka-topics.sh --describe --zookeeper

bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test

--broker-list {broker_number} 确定输入到那个broker

bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning

--from-beginning :去掉此项则消耗当前实时的数据

bin/kafka-topics.sh --zookeeper localhost:2181 -alter -partitions 5 -topic test

此命令只能增量调整partitions数量

bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic test1

注意replicas修改时,只有填写存在的brokerid才有效

内容填写格式如下:

{

"partitions" :

[

{

"topic" : "test1",

"partition" : 0,

"replicas" : [1,3]

},

{

"topic" : "test1",

"partition" : 1,

"replicas" : [1,3]

}

],

"version" : 1

}

bin/kafka-reassign-partitions.sh -zookeeper localhost:2181 -reassignment-json-file partitions-to-move.json -execute

bin/kafka-topics.sh --zookeeper localhost:2181 --describe -topic test1

当存在topic级别配置时,优先使用此配置,若无则自动使用默认的配置

bin/kafka-topics.sh --zookeeper 192.168.89.129:2181,192.168.89.128:2181 --create --topic change --replication-factor 2 --partitions 2 --config max.message.bytes=54000

bin/kafka-topics.sh --zookeeper 192.168.89.129:2181,192.168.89.128:2181 --topic change --alter --config max.message.bytes=5400

bin/kafka-topics.sh --zookeeper 192.168.89.129:2181,192.168.89.128:2181 --topic change --alter --delete-config max.message.bytes

/bin/kafka-reassign-partitions.sh

--zookeeper localhost:2181

--topics-to-move-json-file /tmp/topics-to-move.json

--broker-list "4,5,6,7" --generate

将上一步生成的reassignment plan存入/tmp/reassign-plan.json文件中,并执行

bin/kafka-reassign-partitions.sh

--zookeeper localhost:2181

--reassignment-json-file /tmp/reassign-plan.json --execute

bin/kafka-reassign-partitions.sh

--zookeeper localhost:2181 --verify

--reassignment-json-file /tmp/reassign-plan.json

上一篇 下一篇

猜你喜欢

热点阅读