ios专题kafka

kafka入门篇(二)

2017-05-07  本文已影响37人  HeavenWong

入门篇(二)

9. 设置多个broker集群

cp /usr/local/etc/kafka/server.properties /usr/local/etc/kafka/server-1.properties
cp /usr/local/etc/kafka/server.properties /usr/local/etc/kafka/server-2.properties

10. 编辑这些新建的文件,设置以下属性:

config/server-1.properties: 
    broker.id=1 
    listeners=PLAINTEXT://:9093 
    log.dir=/tmp/kafka-logs-1
    
config/server-2.properties: 
    broker.id=2 
    listeners=PLAINTEXT://:9094 
    log.dir=/tmp/kafka-logs-2
    

我们已经运行了zookeeper和刚才的一个kafka节点(server.properties),现在只需要再启动2个新的kafka节点。

./bin/kafka-server-start /usr/local/etc/kafka/server-1.properties &

./bin/kafka-server-start /usr/local/etc/kafka/server-2.properties &

11. 创建一个新topic,把备份设置为:3

./bin/kafka-topics --create --zookeeper localhost:2181 --replication-factor 3 --partitions 1 --topic my-replicated-topic

怎么知道每个集群在做什么呢?运行命令“describe topics”

./bin/kafka-topics --describe --zookeeper localhost:2181 --topic my-replicated-topic

集群server-1.properties的信息
这是一个解释输出,第一行是所有分区(topics)的摘要,每一个线提供一个分区信息,因为我们只有一个分区,所有只有一条线。

"leader":该节点负责所有指定分区的读和写,每个节点的领导都是随机选择的。
"replicas":备份的节点,无论该节点是否是leader或者目前是否还活着,只是显示。
"isr":备份节点的集合,也就是活着的节点集合。

运行下面的命令,看看之前创建的节点topic

./bin/kafka-topics --describe --zookeeper localhost:2181 --topic test
没有惊喜,刚才创建的topic(主题/节点)没有Replicas,所以是0

发布一些信息到自己的集群server-1节点my-replicated-topic上

./bin/kafka-console-producer --broker-list localhost:9092 --topic my-replicated-topic

现在消费这些信息

./bin/kafka-console-consumer --zookeeper localhost:2181 --from-beginning --topic my-replicated-topic

关闭生产者,关闭消费者

control+c

我们要测试集群的容错,kill掉leader,Broker1作为当前的leader,也就是kill掉Broker1

ps | grep server-1.properties
7564 ttys002    0:15.91 /System/Library/Frameworks/JavaVM.framework/Versions/1.6/Home/bin/java...

使用 Kafka Connect (运行连接器)来 导入/导出 数据

cd /usr/local/Cellar/kafka/0.10.2.0

echo -e "foo\nbar" > test.txt

// 在test.txt增加一行
echo "Another line" >> test.txt

./bin/connect-standalone /usr/local/etc/kafka/connect-standalone.properties /usr/local/etc/kafka/connect-file-source.properties /usr/local/etc/kafka/connect-file-sink.properties

《不需要启动kafka服务》
cat test.sink.txt

**注意:`**,导入的数据也已经在Kafka主题

connect-test

里,所以我们可以使用该命令查看这个主题:

./bin/kafka-console-consumer --zookeeper localhost:2181 --topic connect-test --from-beginning


使用kafka steam 来处理数据(输入/读取数据)

 ./bin/kafka-topics --create \
            --zookeeper localhost:2181 \
            --replication-factor 1 \
            --partitions 1 \
            --topic streams-file-input
./bin/kafka-console-consumer --zookeeper localhost:2181 --from-beginning --topic streams-file-input
./bin/kafka-run-class org.apache.kafka.streams.examples.wordcount.WordCountDemo


参考作者:小东子的博客

参考作者:半兽人.来源: OrcHome

上一篇下一篇

猜你喜欢

热点阅读