elasticsearch v6.3.0 monitor

2018-06-19  本文已影响480人  chenfh5
0. Overview
1. 监控
   - 自定义监控
   - x-pack监控
   - 瞬时状态监控
2. x-pack monitor
   - 监控组织图
   - 安装
   - 启动
   - 配置
   - CMD
3. Others
4. 自定义监控grafana实例
5. Reference

Overview

上周四(0614)es推出了v6.3.0,期待已久的SQL和Rollups已经可以被使用,x-pack功能更加完善。想在此基础上,看看630的监控是怎么样。


监控

es最重要的目标是线上的稳定高性能,而稳定的定义就离不开监控。监控方式有多种,

x-pack monitor

监控组织图

x-pack monitor arch. x-pack collectors

流程大概是:

  1. 安装带x-pack plugin的es和kibana
  2. 配置product-es-cluster的x-pack data collector(采集哪些指标),exporter(将采集指标写到哪里),duration(默认7d),采集频率xpack.monitoring.collection.interval(也可以在kibana设置,默认10s,越频繁,monitoring index越大)
  3. product-es-cluster每隔interval将collector数据写入到exporter(即monitoring-es-cluster
  4. kibana每隔interval(这个interval与exporter的interval无关)从monitoring-es-cluster读取collector数据,然后展示在UI上
  5. kibana会返回一条确认信息到collector(当连上master的时候)

安装

在6.3之前,es和kibana都需要额外安装x-pack plugin;而6.3已经集成了x-pack,直接配置一下即可使用。

安装es v630

elasticsearch.yml

安装kibana vv630

kibana.yml

启动

起来之后,看看2个node时候连上,再看看kibana是否连上。


es master log kibana log

配置

直接使用x-pack提供的monitor,在kibana上查看监控数据的趋势。或者使用动态setting来更新配置。

CMD

HOST=127.0.0.1:9200

curl -s -X GET "$HOST/_cluster/health?pretty"
curl -s -XGET "$HOST/_cat/indices?v"
curl -s -XGET "$HOST/_cat/nodes?v"

# setting check
curl -s -X GET "$HOST/_cluster/settings?pretty"

# dynamic setting
curl -s -X PUT "$HOST/_cluster/settings" -H 'Content-Type: application/json' -d'
{
  "persistent" : {
    "xpack.monitoring.collection.enabled" : "true",
    "xpack.monitoring.collection.interval" : "30s"
  }
}'

curl -s -X PUT "$HOST/_cluster/settings" -H 'Content-Type: application/json' -d'
{
  "transient" : {
    "xpack.monitoring.collection.interval" : null
  }
}'

# create mapping
curl -s -X PUT "$HOST/person" -H 'Content-Type: application/json' -d'
{
    "settings" : {
        "number_of_shards" : 2,
        "number_of_replicas" : 0,
        "refresh_interval": "10s",

        "translog": {
            "flush_threshold_size": "10mb",
            "sync_interval": "10s",
            "durability": "async"
        },

        "merge": {
            "policy": {
                "segments_per_tier": "25",
                "floor_segment": "100mb"
            }
        }
    },
    "mappings" : {
        "_doc" : {
            "properties" : {
                "id" : { "type" : "integer" },
                "name" : { "type" : "text" },
                "address" : { "type" : "text" }
            }
        }
    }
}
'

# generate docs
for i in {1..500000}
do
    curl -s -X POST "$HOST/person/_doc?pretty" -H 'Content-Type: application/json' -d'{  "id": "4", "name": "chenfh5", "address": "Beijing Chaoyang"}' > /dev/null
done

# check docs
curl -s -X GET "$HOST/.monitoring-es-6-2018.06.19/_search?pretty&size=1000" -H 'Content-Type: application/json' -d'
{
    "sort" : [
        { "timestamp" : {"order" : "desc"}}
    ]
}' | grep 'timestamp' | head -n 100

Others

Cerebro现在也从以前的kopf plugin形式脱离出来,做成直接通过http的形式来crul es stat以便渲染UI。所以直接配置es master的http端口,即可使用Cerebro来展示es集群的瞬时状态。

自定义监控grafana实例

  1. 安装grafana
grafana version
  1. 为grafana添加(时序)数据库,用以保存历史数据作对比
添加data source
  1. 编写定时脚本收集相关监控指标数据,并上报到grafana在步骤2所添加的db里
    elasticsearch2elastic这个脚本,里面的,
# 希望监控的es集群
# ElasticSearch Cluster to Monitor
elasticServer = os.environ.get('ES_METRICS_CLUSTER_URL', 'http://srcServer:9200')

# 上报监控数据的目的地,即grafana的data source
# ElasticSearch Cluster to Send Metrics
elasticMonitoringCluster = os.environ.get('ES_METRICS_MONITORING_CLUSTER_URL', 'http://destServer:9200')
  1. 查看grafana的data source是否有上报数据
check if the monitor data have been uoloaded?
  1. 配置dashboard
    根据上报的数据,配置自己喜欢的监控仪表盘(New dashboard)。也可以使用社区已经建好的dashboard
    这里采用了在社区版基础上修改为自己喜欢的。
    先import社区版的到grafana里。Home -> Import dashboard

    因为网络问题,没有采用id/url的方式,而采用了离线json安装方式,具体采用了哪些指标,指标应用了哪些函数,都可以在json文件上看到,当然也可以在导入之后直接在grafana里面修改
  2. 展示

snapshot
  1. 自定义
    通过定时脚本上传自定义数据,然后在metric里面应用各类函数得到最后想要的监控指标,然后选择合适图表来展示。如,每个RT的总数据量,每个RT的每日数据量。
  1. 告警
    利用grafana的alert功能

  1. grafana设置多集群


    在setting里面设置分集群
具体在tab里面引用重命名

另外,由于cluster_name这个在默认写的时候是text,导致了使用query_string查的时候这个cluster_name形同虚设,那么就会导致每个集群查到的数据都是一样的,取max之后也就都一样了。

540 630 cluster_name的mapping

正确的打开方式,根据grafana的查询语句,来改造自己的mapping,即把cluster_name改为keyword。

540_correct 630_correct cluster_name的mapping_correct
  1. grafana es template variables
    今天再来说说上面遇到的variable配置了query之后没有结果的问题。

先说结果,

# not work
{"find": "terms", "fields": "cluster_name"}

# work
{"find": "terms", "field": "cluster_name", "query": ""}
error {"type":"illegal_state_exception","reason":"value source config is invalid; must have either a field context or a script or marked as unwrapped"} have resp

从上面可以看到如果只使用field,而没有query的话,grafana翻译出来的esDsl是错误的,即不带cluster_name这个field。而如果带上query就会有,而在带上query之后,再回退到不带query的方式,有时候可以,有时候不可以。而根据grafana提供的文档,如果对field没有特殊query需求,是可以不带query的。

grafana doc
  1. es date type


    UTC vs local time zone

snapshot

整体一览所有集群


grafana custom es each cluster monitor checklist for each cluster



细看某个集群的具体信息

grafana custom es each cluster monitor whole snapshot

Reference

上一篇 下一篇

猜你喜欢

热点阅读