zookeeper程序猿阵线联盟-汇总各类技术干货

ZK之Watcher模式假死

2019-03-22  本文已影响0人  小雪的笔记

导语

近期专项定位某个服务的用户反馈,其中有个业务使用zookeeper进行配置同步,但发现延时1——20分钟不等,导致数据加载不及时,引起一系列问题。

服务架构

image.png

问题

问题定位

  1. /com/tencent/grayOuter/config/BETA_TACTICS 节点下面存储所有的策略节点,发现数据量非常大,根据其中一个node查看数据是很久一起用过之后废弃的策略,但ZK还存储着的,怀疑使用的ZK node永久模式,导致ZK Server需要watche的数据量较大
    图片是删除历史数据之后的节点
image.png
查看某个子节点的详细数据:get /com/tencent/grayOuter/config/BETA_TACTICS/56ab4ccc4f_b6432b11-6198-4fbb-91ac-b52c928119b7_1
image.png

5.查看源码确认子节点是永久模式,只有主动删除的情况节点才会删除,在查看DB里面的历史记录,月20W条数据,故怀疑ZK服务端需要watche的节点量大,导致下游watcher监听不及时。


image.png
    
  1. 根据第4步的分析,考虑采用直接删除历史节点的方式操作验证想法(由于这些节点只是数据同步的作用,现在实时同步基本不可用,所以配置同步基本上都是定时JOB来进行加载的,删除节点对业务没有影响)

    删除子节点
    rmr /com/tencent/grayOuter/config/BETA_TACTICS 
    create /com/tencent/grayOuter_test/BETA_TACTICS beta_tactics
    
    

    操作前的数据延时


    image.png

    操作后,配置可以实时获取到


    image.png

总结

使用ZK永久节点作为配置同步,需要考虑数据量的大小,若数据量大(上万),则需要考虑使用MQ中间件的方式,ZK不适合数据量大的配置同步

上一篇下一篇

猜你喜欢

热点阅读