阿里云日志服务使用教程

2018-07-20  本文已影响0人  xmvip01

日志服务(Log Service,简称 Log)是针对日志类数据的一站式服务,在阿里巴巴集团经历大量大数据场景锤炼而成。您无需开发就能快捷完成日志数据采集、消费、投递以及查询分析等功能,提升运维、运营效率,建立 DT 时代海量日志处理能力。

核心功能如下:http://click.aliyun.com/m/51386/

实时采集与消费(LogHub)

功能:

通过ECS、容器、移动端,开源软件,JS等接入实时日志数据(例如Metric、Event、BinLog、TextLog、Click等)

提供实时消费接口,与实时计算及服务对接

用途:数据清洗(ETL),流计算(Stream Compute),监控与报警, 机器学习与迭代计算

投递数仓(LogShipper)

稳定可靠的日志投递。将日志中枢数据投递至存储类服务进行存储与大数据分析。支持压缩、自定义Partition、以及行列等各种存储方式。

用途:数据仓库 + 数据分析、审计、推荐系统与用户画像

查询与实时分析(Search/Analytics)

实时索引、查询分析数据。

查询:关键词、模糊、上下文、范围

统计:SQL聚合等丰富查询手段

可视化:Dashboard + 报表功能

对接:Grafana,JDBC/SQL92

用途:DevOps/线上运维,日志实时数据分析,安全诊断与分析,运营与客服系统

产品优势

全托管服务

易用性强,5分钟即可接入服务进行使用,Agent支持任意网络下数据采集

LogHub覆盖Kafka 100%功能,并提供完整监控、报警等功能数据,弹性伸缩等(可支持PB/Day规模),使用成本为自建50%以下

LogSearch/Analytics 提供保存查询、仪表盘和报警功能、使用成本为自建 20%以下

30+ 接入方式,与云产品 (OSS/E-MapReduce/MaxCompute/Table Store/MNS/CDN/ARMS等)、开源软件(Storm、Spark)无缝对接

生态丰富

LogHub 支持30+采集端,包括Logstash、Fluent等,无论是从嵌入式设备,网页,服务器,程序等都能轻松接入。在消费端,支持与Spark Streaming、Storm、云监控、ARMS等对接

LogShipper 支持丰富数据格式(TextFile、SequenceFile、Parquet等),支持自定义Partition,数据可以直接被Presto、Hive、Spark、Hadoop、E-MapReduce、MaxCompute、HybridDB等存储引擎

LogSearch/Analytics 查询分析语法完整,兼容SQL92,即将提供:JDBC协议与Grafana对接

实时性强

LogHub:写入即可消费;Logtail(采集Agent)实时采集传输,1秒内到服务端(99.9%情况)

LogSearch/Analytics:写入即可查询分析,在多个查询条件下1秒可查询10亿级数据,多个聚合条件下1秒可分析1亿级数据

完整API/SDK

轻松支持自定义管理及二次开发

所有功能均可通过API/SDK实现,提供多种语言SDK,可轻松管理服务和百万级设备

查询分析语法简单便捷(兼容SQL92),接口友好适合与生态软件对接(即将提供Grafana对接方案)

关于阿里云日志服务的详细内容:

阿里云日志服务使用教程

(日志服务(Log Service,简称Log)是针对日志类数据一站式服务,在阿里巴巴集团经历大量大数据场景锤炼而成。用户无需开发就能快捷完成数据采集、消费、投递以及查询分析等功能,帮助提升运维、运营效率,建立DT时代海量日志处理能力。)

阿里云大学官网(阿里云大学 - 官方网站,云生态下的创新人才工场)

上一篇下一篇

猜你喜欢

热点阅读