kafka的使用

2018-08-13  本文已影响0人  什么都没有说

kafka启动和停止(kafka bin目录下)

1.配置zookeeper,server.properties文件中修改zookeeper地址
2.如果未搭建zookeeper环境,可以直接运行kafka内嵌的zookeeper,启动内嵌zookeeper命令如下:
sh zookeeper-server-start.sh config/zookeeper.properties &
3.后台启动kafka
sh kafka-server-start.sh -daemon config/server.properties &
4.停止kafka
sh kafka-server-stop.sh config/server.properties

kafka基本操作

1.创建Topic
./kafka-topics.sh --create --zookeeper 192.168.25.134:2181 --replication-factor 1 --partitions 1 --topic test

2.查看topic
./kafka-topics.sh --list --zookeeper 192.168.25.134:2181

3.查看topic属性
./kafka-topics.sh --describe --zookeeper 192.168.25.134:2181 --topic test

4.发送消息
./kafka-console-producer.sh --broker-list localhost:9092 --topic test

5.消费消息
./kafka-console-consumer.sh -bootstrap-server localhost:9092 --topic test --from-beginning

kafka搭建集群

修改server.properties文件
1.broker.id=0 (保证每台机器的broker.id不同)
2.advertised.listeners=PLAINTEXT://192.168.25.134:9092(输入本机ip)

kafka java API 的使用

配置信息

发送端可选的配置分析

  1. acks
    acks配置表示producer发送消息到broker上以后的确认值。有三个可选项

2.batch.size
生产者发送多个消息到broker上的同一个分区时,为了减少网络请求带来的性能开销,通过批量的方式来提交消息,可以通过这个参数来控制批量提交的字节数大小,默认大小是16384byte,也就是16kb,意味着当一批消息大小达到指定的batch.size的时候会统一发送。

3.linger.ms
Producer默认会把两次发送时间间隔内收集到的所有Requests进行一次聚合然后再发送,以此提高吞吐量,而linger.ms就是为每次发送到broker的请求增加一些delay,以此来聚合更多的Message请求。 这个有点想TCP里面的Nagle算法,在TCP协议的传输中,为了减少大量小数据包的发送,采用了Nagle算法,也就是基于小包的等-停协议。

4.max.request.size
设置请求的数据的最大字节数,为了防止发生较大的数据包影响到吞吐量,默认值为1MB。

消费端可选的配置分析

1.group.id
consumer group是kafka提供的可扩展且具有容错性的消费者机制。既然是一个组,那么组内必然可以有多个消费者或消费者实例(consumer instance),它们共享一个公共的ID,即group ID。组内的所有消费者协调在一起来消费订阅主题(subscribed topics)的所有分区(partition)。当然,每个分区只能由同一个消费组内的一个consumer来消费。

2.enable.auto.commit
消费者消费消息以后自动提交,只有当消息提交以后,该消息才不会被再次接收到,还可以配合auto.commit.interval.ms控制自动提交的频率。
当然,我们也可以通过consumer.commitSync()的方式实现手动提交.

3.auto.offset.reset
这个参数是针对新的groupid中的消费者而言的,当有新groupid的消费者来消费指定的topic时,对于该参数的配置,会有不同的语义

4.max.poll.records
此设置限制每次调用poll返回的消息数,这样可以更容易的预测每次poll间隔要处理的最大值。通过调整此值,可以减少poll间隔。

上一篇 下一篇

猜你喜欢

热点阅读