Elastic Stack -- 日志管理

2018-11-12  本文已影响0人  saoraozhe3hao

官网:https://www.elastic.co/

日志大数据系统的组成
日志记录工具:Log4j 2、Apache Commons Logging等
日志采集器:部署在每台服务器上,采集数据到缓冲队列,例如 Elastic Beats、Elastic Logstash、Fluentd、Apache Flume
日志缓冲队列(可选):RocketMQ,Kafka,Redis等
日志解析器(可选):从缓冲队列里读取日志,转成JSON,存到日志存储系统。例如Elastic Logstash、Fluentd
日志存储系统:Elasticsearch、MongoDB等NoSQL
日志检索系统:Elasticsearch、Apache Solr等
日志展示系统:Elastic Kibana等

概念
Elastic Stack:elastic.co发布的一序列产品
ELK:Elasticsearch、Logstash、Kibana
ELK Stack:Elastic Stack的曾用名

Beats

功能:轻量级 采集、发送数据
产品序列:Filebeat(日志采取)、Metricbeat(操作系统和应用软件 指标数据的采集)、Packetbeat(网络数据采集)、Heartbeat(健康数据采集)

Filebeat

文档:https://www.elastic.co/guide/en/beats/filebeat/current/index.html
配置参考:https://www.elastic.co/guide/en/beats/filebeat/current/filebeat-reference-yml.html

安装
1、下载tar.gz 到 /usr,解压tar -zxvf
2、运行Filebeat:./filebeat -e -C filebeat.yml

模块
prospector:勘探者,即input,监控文件变化
harvester:收割者,即output,读取文件,发送给目标。发送的数据格式为json,字段包含采集时间、采集源、message,message即所采集的日志
filter:过滤器,在input和output时,过滤掉部分行和filebeat自己加上的字段

配置
filebeat.yml

filebeat.inputs:                        # 是个数组
- type: log                                # 还可以是标准输入stdin
   paths:                                    # 是个数组
   - /var/log/*.log
   exclude_lines: ['^DBG']         # 排除行
   include_lines: ['^ERR', '^WARN']  # 包含行
   exclude_files: ['.gz$']  # 排除文件

output.elasticsearch:                 # 输出到elasticsearch,还可以输出到console、file、Logstash、Kafka、Redis
  hosts: ["localhost:9200"]

processors:  # 输出处理
- drop_event:  # 在某情况下丢弃本条日志
    when:
       equals:
           http.code: 200
- drop_fields:           # 丢弃字段
    fields: ["source", "type"]
- include_fields:   # 只取部分字段
    fields: ["message"]

filebeat.modules:  # 启用通用模块
- module: nginx
- module: mysql
- module: system
Packetbeat

文档:https://www.elastic.co/guide/en/beats/packetbeat/current/index.html
配置参考:https://www.elastic.co/guide/en/beats/packetbeat/current/packetbeat-reference-yml.html

安装
1、下载tar.gz 到 /usr,解压tar -zxvf
2、运行Packetbeat:./packetbeat -e -C packetbeat.yml

配置
packetbeat.yml

packetbeat.interfaces.device: any   # 网卡
packetbeat.protocols:      # 抓包目标
- type: http
  ports: [80, 8080, 8000, 5000, 8002]

send_request: true  # 是否抓取请求体
include_body_for: ["application/json"]  # 抓取json请求的body

# output 和 processors 配置,与Filebeat类似

Logstash

功能:采集、转换、发送数据
文档:https://www.elastic.co/guide/en/logstash/current/index.html
历史:Jordan Sissel 于 2009年发布Logstash,2013年被Elasticsearch公司收购

安装
1、下载tar.gz 到 /usr,解压tar -zxvf
2、运行logstash:bin/logstash -f config/logstash.sample.conf

模块
input:输入
filter:过滤与转换
output:输出

配置
config/logstash.sample.conf

input { 
    stdin { }    # 标准输入
    file {         # 文件输入
        path => "/tmp/access_log"
        start_position => "beginning"
    }
    tcp {     # 网络输入
      port => 5000
      type => syslog
    }
} 

filter {         
  if [path] =~ "access" {    # 过滤
      mutate { replace => { "type" => "apache_access" } }   # 设置字段的值
      grok {
        # 设置message的格式,COMBINEDAPACHELOG 会被展开成 多个%{pettern:key}
        match => { "message" => "%{COMBINEDAPACHELOG}" }
      }
  } 
  else if "error" in [request]  {
    mutate { replace => { type => "apache_error" } }
  }     
  if [type] == "syslog" {
    grok {
      # %{字段值的来源:字段名}
      match => { "message" => "%{SYSLOGTIMESTAMP:syslog_timestamp} %{SYSLOGHOST:syslog_hostname} %{DATA:syslog_program} %{GREEDYDATA:syslog_message}" }
      add_field => [ "received_at", "%{@timestamp}" ]    # 添加字段
      add_field => [ "received_from", "%{host}" ]
    }
  }

  grok {                        # 结构化
    match => { "message" => "%{COMBINEDAPACHELOG}" }
  }
  date {                        # 时间处理
    match => [ "timestamp" , "dd/MMM/yyyy:HH:mm:ss Z" ]
  }
}

output {
  elasticsearch { hosts => ["localhost:9200"] }   # 输出到elasticsearch
  stdout { codec => rubydebug }   # 标准输出,格式为rubydebug
}

grok模式的定义:https://github.com/logstash-plugins/logstash-patterns-core/tree/master/patterns

Elasticsearch

功能:存储和检索
详见:https://www.jianshu.com/p/09fdd85d3613

Kibana

功能:web界面展示
文档:https://www.elastic.co/guide/cn/kibana/current/index.html

安装:
1、下载tar.gz,放到/usr,解压tar -zxvf
2、配置 config/kibana.yml

elasticsearch.url: "http://localhost:9200"  # ES的位置
server.host: 绑定的IP
server.port: 端口

3、运行kibana:bin/kibana
4、访问 IP:5601

板块
Dev Tools:编辑和发送请求
Discover:数据查看,数量统计
Dashboard:总览
Visualize:配置图表,显示图表
Management:设置 与 管理

Elastic Stack 实践

1、Packetbeat部署在业务集群
2、Logstash、Elasticsearch 和 Kibana部署在日志监控集群
3、Packetbeat 抓取业务包,发给Logstash,处理后存到Elasticsearch

Packetbeat配置

packetbeat.protocols:      # 输入
- type: http
  ports: [80, 8080, 8000, 5000, 8002]
output.logstash:              # 输出
  hosts: ["localhost:5044"]

Logstash配置

input {                  # 输入
    beats {  
      port => 5044  
    }    
} 
output {          # 输出
  elasticsearch { hosts => ["localhost:9200"] }   # 输出
}

阿里云

开放搜索:搜索引擎
日志服务
阿里云 · Elasticsearch

上一篇下一篇

猜你喜欢

热点阅读