Elasticsearch独立master,tribe节点

2017-01-06  本文已影响1913人  Kungfu猫熊

场景描述

之前的ES机器是三台服务器九个实例, 之所以每台服务器上部署三个实例, 是因为机器不够, 另外一个是每个机器有三块硬盘, 24核cpu, 196G内存, 所以一个物理机上起三个实例, 可以最大限度的发挥ES集群的优势.

集群中每个节点都可以是data和master节点, 并且和master通信的超时时间为3s.

discovery.zen.ping.timeout: 3s

当我们的数据节点因为写入压力过大时, 可能会使节点之间的心跳通信超过这个时间, 那么可能会引起重新选举master的可能. 这次将新增三个实例分布到这三台服务器上, 做master节点.下面是master节点的主要配置:

cluster.name: eagleye_es
node.name: "eagleye_es_xx_master"

node.master: true
node.data: false

#ping 其它节点的超时时间
discovery.zen.ping_timeout: 30s

#心跳timeout设为2分钟,超过6次心跳没有回应,则认为该节点脱离master,每隔20s发送一次心跳。
discovery.zen.fd.ping_timeout: 120s
discovery.zen.fd.ping_retries: 6
discovery.zen.fd.ping_interval: 20s

#要选出可用master, 最少需要几个master节点
discovery.zen.minimum_master_nodes: 2

path.logs: /var/log/es_master
#不使用交换区
bootstrap.mlockall: true

transport.tcp.port: 8309
transport.tcp.compress: true
http.port: 8209

由于我们的业务场景是给业务人员提供实时的日志查询, 那么近几日的日志将会是频繁查询的对象, 那么一个月以前的日志可能少有人进行查询. 配合这样业务场景, 我们将来打算进行集群数据的冷热分离. 这次变更正好分出独立的查询节点, 并通过tribe的方式去进行. 这次增加两个tribe节点用来做查询节点, 并为之后的冷热分离做准备, tribe节点主要配置如下:

node.name: "eagleye_es_xx_tribe"
node.data: false
node.master: false
path.logs: /var/log/es_tribe
bootstrap.mlockall: true

index.search.slowlog.threshold.query.warn: 5s
index.search.slowlog.threshold.query.info: 1s
index.search.slowlog.threshold.query.debug: 500ms
index.search.slowlog.threshold.query.trace: 500ms

index.search.slowlog.threshold.fetch.warn: 5s
index.search.slowlog.threshold.fetch.info: 1s
index.search.slowlog.threshold.fetch.debug: 500ms
index.search.slowlog.threshold.fetch.trace: 500ms

index.indexing.slowlog.threshold.index.warn: 5s
index.indexing.slowlog.threshold.index.info: 2s
index.indexing.slowlog.threshold.index.debug: 500ms
index.indexing.slowlog.threshold.index.trace: 500ms

transport.tcp.port: 8308
transport.tcp.compress: true
http.port: 8208

tribe:
  hot:
    cluster.name: eagleye_es
  blocks:
    write: true
    metadata: true
  on_conflict: prefer_hot

threadpool:
  search:
    tyep: fixed
    size: 24
    #用来保存请求的队列
    queue_size: 100

做到这个时候, 还需要将原有的9个节点修改为data节点, 主要配置变更如下:

node.data: true
node.master: false

最后我们在查询程序中, 就不能指定集群的名字了, 而是直接通过tribe节点进行检索

 private static void init() {
        Settings settings = ImmutableSettings.settingsBuilder()
//                .put("cluster.name", AppConstants.EAGLEYE_ES_CLUSTER)  // 由于使用了 节点 , 就不能加 cluster.name 属性了
                .put("client.transport.sniff", false)
                .build();
        client = new TransportClient(settings);
        String esNodes = PropertiesUtil.getProperty(AppConstants.EAGLEYE_IMAGO_KEY, AppConstants.EAGLEYE_ES_TRIBES_KEY);
//        String esNodes = PropertiesUtil.getProperty(AppConstants.EAGLEYE_IMAGO_KEY, AppConstants.EAGLEYE_ES_NODES_KEY);
        String[] esNodeList = esNodes.split(",");
        for (String serv : esNodeList) {
            String[] node = serv.split(":");
            if (node.length == 2) {

                client.addTransportAddress(new InetSocketTransportAddress(node[0], Integer.valueOf(node[1])));
            }
        }
    }

现在的ES集群结构

ES集群架构图

碰到的问题

上一篇下一篇

猜你喜欢

热点阅读