函数式内功心法-08: 流式复合技术之Conduit海纳百川

2018-11-17  本文已影响199人  larluo_罗浩

流式计算是我非常喜欢的技术。无流式,不快活!ALL in streaming!
所以,这次会废话多一点,嘿嘿。

早期学习spark跟storm时候,决然选择clojure发展下去,就是看到了流式引擎未来的辉煌。虽然目前spark在机器学习推动下如日中天,storm随着创始人自立门户成为弃子,但是流式浪潮必将掀起腥风血雨,浴火重生。

我已经深深地感觉到,流式引擎始于数据世界,亦将辉煌于云计算时代。流式技术是一剂能从根本上解决读写分离的良药,能一统计算引擎与查询引擎, 在各个发展方向中不断壮大,最终九九归一,笑傲江湖!

流式引擎应用在哪里?

流式引擎无处不在。从性质上主要分为事件流与数据流。
事件流较为简单,一般相互独立,数据流则复杂一些,亦可以将事件消息作为数据处理,即将事件流作为数据流来玩。在涉及状态管理的情况下,事件与数据流引擎基本无差异。
简单介绍一下各个方面的应用:

  1. 文件系统(ceph)
    a. 从简单的文件系统来说, inotify接口就是一个事件流
    b. 有了事件流filebeat可以调用系统接口得到数据流。
    c. 云存储ceph亦是如此
  2. 数据库(postgresql, elasticsearch)
    a. postgresql数据库的事件流为触发器,可以很方便地使用扩张与外界流通。
    b. postgresql数据库的数据流则为replicate接口,本质上从底层日志文件读取
    c. elasticsearch使用NRT策略实现数据流准实时
  3. 消息队列(rabbitmq, zeromq, kafka)
    最标准的实时流组件自然就是消息队列了
    a. RabbitMQ主要用于事务事件流,保障消息稳定性
    b. ZeroMQ主要用于网络事件流,提高网络的扩展性
    c. kafka主要用于数据流机制,高并发低延迟
  4. 配置管理(zookeeper)
    zookeeper对配置变化进行监听,产生事件流.
  5. 前端展现(websocket, react)
    a. 从后台服务到前端的事件流主要通过websocket触发
    b. 界面ui的事件流触发主要通过facebook的react框架完成

现在可以看到,所有的系统已经完成了实时的闭环.

  1. ui通过react框架完成前端事件流机制.
  2. 前端事件流通过http以及websocket建立后台事件流通讯.
  3. 后台服务事件流通过CSP机制完成业务接口实时响应功能.
  4. 后台服务配置状态通过zookeeper事件流管理
  5. 后台服务数据流通过kafka消息队列机制完成数据整合.
  6. kafka通过postgresql以及es存储引擎完成数据分析功能.

有了事件流及数据流,接着看强大的流式引擎。

  1. 事件流与数据流处理引擎(csp,ksql,conduit)
    常用的事件流引擎就是CSP跟Actor了, 简单快捷!
    常用的数据流引擎kafka streams & KSQL/storm/onyx/flink
    conduit与transducer为可复合的流式引擎,也是本文的核心。
  2. 流式引擎状态存储(rocksdb)
    目前主要采用的状态存储一般为KV存储,主要分为rocksdb以及redis+hbase
    rocksdb更简单好用一些, 在区块链及kafka streams引擎中起着至关作用。

流式引擎相比较于批量引擎强大在何处?

随着响应式编程跟实时计算的兴盛, 批量引擎逐渐在衰落。

  1. 批量引擎没有事件流响应机制。
    所以需要引入调度器事件流机制来连接流程,引起了极大的复杂度跟维护性。并且对于调度机制来说,目前的技术大部分采用手工配置,日积月累形成较大的维护负担。
  2. 批量引擎不能管线运行,造成极大的内存消耗, 存储浪费和时间延迟。
    例如如果有五个表进行join,就得进行四步中间操作,如果采用流式就可以同时一起遍历所有流对kv存储进行操作。加上调度系统的作业依赖,延迟性进一步加大。
  3. 批量引擎无法动态资源管理,对于系统稳定性有极大影响.
    当前分布式批量引擎对于资源的分配都是静态的,对于hdfs来说按照块来化分更是硬伤。由于数据的存储,内存的分配,计算的复杂度没有较好的关联性,需要大量的人工介入与参数调整。而流式系统对于内存消耗较少,存储压力极小,计算复杂度可以自动化动态增加节点进行微调,所以有着更大的扩展性与稳定性。
  4. 批量引擎调试成本太高,人工介入性过多。
    批量引擎失败后,没有自动恢复触发机制,需要人工去干预。对于作业并行以及数据间的相互影响,一旦不慎重考虑,将是一个巨大的恶梦等在前面。而流式处理在设计之处并行上极为独立,相关的数据修复及影响将会自动触发,所以简化了系统设计,将系统的健壮性根值在程序逻辑中,减少了人工性,加强了事件性自主修复功能。由于流式机制的响应式特性,对于排除故障亦是更加方便。
  5. 批量引擎短时间产生极大io及CPU压力,无法与查询引擎共存。
    由于批量引擎处理过程中,带来大量的io及CPU压力,产生jvm gc及磁盘读取过慢,会极大影响外部的查询接口。目前唯一能做的办法是将批量过程隔离开来,仅同步最后结果至服务平台。但是限制还是非常大的,同步数据量占整个io消耗的比重是很难预估的。如果产生的结果大部分要同步,最终批量分隔出来产生的效果并不会明显改善,并且对于分布式系统需要两套集群环境开销,非常不经济。如果采用实时系统,所有的载荷通过实时平摊,加入分片机制扩展缓和,流式计算引擎与服务查询引擎是可以很简单共存的。

前面都是废话,我们要开始正题了

  1. 流式引擎的分类
    a. Tuple事件流架构-storm
    b. Sequence型架构-kafka streams, storm trident, flink
    c. Transducer复合型架构-clojure
    d. Conduit复合型架构-haskell
  2. 深入理解Conduit
    a. Conduit的基本原理
    b. Conduit的高级技巧
  3. Conduit源码剖析
    a. Conduit类型定义
    b. Conduit的传递与融合
    c. Conduit的基本函数-yield, wait, lift, leftover
    d. Conduit的组合函数-yieldMany, awaitForever, fold, map
    e. Conduit的应用函数
    e. Conduit的Chunk机制

一. 流式引擎的分类

前面谈到,数据流是更高级的事件流,因为事件流仅仅关心当前事件并做出响应,而数据流在此之上要考虑更多的状态计算,跨行汇总之类的东西。

a. Tuple事件流架构-storm

当年最早在流式引擎领域称雄的就是storm了,那时候的流式处理比较原始,基于事件流来完成。
比如发送一个tuple事件之后,产生ack应答事件,保障数据处理的完整性。当然底层考虑的问题会比较复杂,一旦涉及网络,消息的保障性就会异常麻烦。

当然事件流引擎还要处理数据流入速度过快的情况,这就是回压技术。当压力过大时,减缓上游的取数速度。
在事件流引擎里面没有状态管理的概念,所以需要人工管理。

b. Sequence型架构-kafka streams, storm trident, flink

storm的tuple事件流机制之后,函数式技术在数据领域方面的先天优势开始发挥出来。

当把事件流抽象到数据流的概念的时候,我们可以无需额外编码就可以运用映射函数式里的map,filter, concat, reduce, sliding, group by各种内存状态操作。

映射函数式的核心是sequence,就是一个惰性的序列,与java的iterator接口类似。

映射函数式是函数式的基本功能,不够强大,但是应用广泛,包括java streams, spark rdd, scala, flink, storm trident, kafka streams都是映射函数式,属于函数式初级功能。

映射函数式有很大的缺陷,只能向下复合,不能平行复合。拿最基本的平行复合例子来说,比如用映射函数式同时独立计算sum跟count,是很难实现的。
为什么呢? 因为映射式函数是不可侵入的。
当我们计算sum的时候,整个sequence是作为一个整体处理的,没法同时侵入count的过程。之所以映射式函数不可侵入,是因为映射函数式考虑的是整体操作。

我们知道基本的函数式操作是transform/reduce,就是单行转换与跨行聚合操作。而聚合操作这个过程无法平行复合的,因为它需要跨行遍历sequence。当然,如果需要同时进行reduce操作,是可以在reduce里面同时进行两个操作,自己分别管理状态。但是这不是复合操作,没去完全合并独立的两个reduce操作。

基本上市面上的流式引擎大部分落在这个阶段,因为函数式编程仍处于初步阶段。kafka streams在此基础上通过rocksdb立置了状态管理,加上KSQL的解析引擎,在传统流式引擎方向是属于技术比较领先的了。

c. Transducer复合型架构-clojure

作为函数式鼻祖实用性分支的clojure认识到了映射性函数式的局限性,并开创了transducer技术。

transducer技术是什么呢? transducer不再关心sequence。而是关心函数的复合。transducer分为两个过程,transform跟reduce。前面讲过transform过程是可以自由组合的。

所以transducer的核心思想就是,数据不再是sequence,而是transform函数复合调用链,最后进行reduce对结果进行合并。
这个时候,数据流是可侵入的,因为transform的每个操作是单行处理的调用链,只有reduce是负责整体。

那么我看看一下前面这个问题,如何同时计算sum跟count呢?
我们可以使用juxt函数,将调用链同时传递给sum跟count。juxt进行reduce操作的时候,对sum跟count也进行reduce即可。

=> (into {} (x/by-key odd? (x/transjuxt {:sum (x/reduce +) :mean x/avg :count x/count})) (range 256))
{false {:sum 16256, :mean 127, :count 128}, true {:sum 16384, :mean 128, :count 128}}

对于transducer技术来说,算是一个很大的进步了。transducer在垂直复合的情况下,完全了reduce的水平复合,基本上可以说解决了99%的问题。那么另外的1%呢? transform的水平复合!
由于transform必须调用reduce来完成复合,所以两个transform仍然是无法复合的。比如我要对数据进行奇偶分类,接着对奇数进行平方,对偶数进行3次方。不进行reduce处理,它的中间transform结果是无法流式合并的。

d. Conduit复合型架构-haskell

最后haskell老大忍不住了,他毫不谦虚地喊道,小弟们,老夫就是专业搞复合技术几十年啊!
众人不解,前面该想到的办法都想到了,难道还有方法不成?
haskell老大无所畏慎地说了一句,去中心化。
这里我们就要开始提到conduit的思想了。
conduit基于pipe的概念。数据流可以是pipe, 处理逻辑也可以是pipe。tranform跟reduce是同样的pipe, reduce是有返回值的pipe。有了pipe之后,我们可以构建连接器进行融合。
对于前面的问题: 对数据进行奇偶分类,接着对奇数进行平方,对偶数进行3次方。
我们对于这两个pipe逻辑构建水平连接器, 接着调用垂直连接器从上游获取数据。当从上游获取数据后,水平连接器分别单行调用垂直连接器,输出合并后的结果。一口气分成了分流及合流操作。
对比于前面的transducer思想来说,数据的采集不再区分transform跟reduce,transform是多行结果数据, reduce是单行结果数据,统一由连接器收集组合。

基本思想如此,那我们今天的主角就是conduit,让我们看一看它是具体如此实现的。

二. 深入理解Conduit

Conduit的官方文档如下: https://github.com/snoyberg/conduit

1. Conduit的基本原理

Conduit的Pipe分为生产者Pipe, 转换器Pipe, 消费者Pipe。

所以,整个连接的过程大体上有三种

a. 单个Pipe内部组合的过程有两种基本操作:

b. 同种Pipe Zip显然有三种:ZipSource,ZipConduit,ZipSink。

c. 不同Pipe之间融合逻辑比较通用

融合逻辑是Conduit的核心,也是流式架构大杀器。
当然在极少数情况下,融合操作比较困难的情况下,可以选择直接将函数逻辑与Pipe相连,而不一定需要融合。这里不过多展开介绍.

为了进一步理解融合的过程,我们对前面的一些概念进行具体定义。

介绍了基本的Pipe类型,我们可以简单了级一下Pipe的融合过程.
组合时,拨开右边发现是NeedInput,我们从左边读取数据交给右边产生新的Pipe,如果新产生的Pipe依然是NeedInput接着递归下去,直至结束,两边递归完成。当然这里只是最简单的一种情况,完全的情况我们后面在源码里面详细讲解。

2. Conduit的高级技巧

前面讲了基本的传递自连接>>,融合fuse及zip操作。
这里介绍得是一些便于使用的高级功能。

a. Chunk功能

由于数据处理中涉及批量读取的过程,即一次读取n条数据。对于常用的sequence方案来说,一般会进行concat手工拆解,带来了不必要的麻烦跟性能开销。
Conduit提供了Chunk原生实现,及基于Chunk函数,可以原生操作在底层的数据中。比如读取文件时,一下子读取1024个字节,分多批次读完。有了chunk函数之后,我们可以直接基于chunk实现丢弃掉2000个字节,而不需要进行对字节拼接连之后再做处理。

b. 消费策略

消费策略分为两种,一种是输出消费策略,另一种是分层消费策略

三. Conduit源码剖析,好好玩!

a. Conduit类型定义
b. Conduit的传递与融合
c. Conduit的基本函数-yield, wait, lift, leftover
d. Conduit的组合函数-yieldMany, awaitForever, fold, map
e. Conduit的应用函数
e. Conduit的Chunk机制

上一篇下一篇

猜你喜欢

热点阅读