数客联盟程序员

如何使用Kafka MirrorMaker

2017-06-03  本文已影响515人  Woople

业务场景

目前已经有一个kafka集群接收外部数据,但是由于某种原因要将业务迁移到新的集群,新的应用都要跑在新的集群上,而短时间内外部数据只能发送到旧集群,这样就需要将旧集群中的topic数据接到新集群的topic中。这里用到了MirrorMaker工具,简单的说,这个工具就是启动consumer消费旧集群中topic的数据,然后启动producer直接发送到新集群中的topic。

操作步骤

注:本文使用的Kafka版本是0.10.0

先检查一下旧topic中的offset情况

sh /usr/hdp/2.5.0.0-1245/kafka/bin/kafka-run-class.sh kafka.tools.GetOffsetShell --broker-list oldhost:6667 --topic tutorials --time -1

tutorials:0:3

在看一下新topic中的offset情况

sh /usr/hdp/2.5.0.0-1245/kafka/bin/kafka-run-class.sh kafka.tools.GetOffsetShell --broker-list newhost:6667 --topic tutorials --time -1

tutorials:2:1
tutorials:1:1
tutorials:0:2

在新的集群中运行下面的命令,使用jsp可以看到会有个MirrorMaker进程

sh /usr/hdp/2.5.0.0-1245/kafka/bin/kafka-run-class.sh kafka.tools.MirrorMaker --consumer.config /opt/consumer.config --num.streams 2 --producer.config /opt/producer.config  —num.producers 2 --whitelist="tutorials"

向旧的topic中发送hello,可以通过在新集群的kafka-console-consumer.sh查看是否收到消息,并且使用上面的命令查看新的topic的offset的情况,可以看到新的消息被存在partition-2中了,说明接进来的消息会重新分配partition

tutorials:2:2
tutorials:1:1
tutorials:0:2

其他

在实际的生产环境中需要将这个命令放到后台运行,并且需要查看相关的日志,那么只需要增加几个参数即可

sh /usr/hdp/2.5.0.0-1245/kafka/bin/kafka-run-class.sh -daemon -name tutorials -loggc kafka.tools.MirrorMaker --consumer.config /opt/consumer.config --num.streams 2 --producer.config /opt/producer.config  —num.producers 2 --whitelist="tutorials"

这样生成的日志文件会在kafka目录下的log里面,并且日志的名字为tutorials-gc.log和tutorials.out,默认的log的配置在kafka中conf里面的tools-log4j.properties文件。

上一篇下一篇

猜你喜欢

热点阅读