5.4-分片及其生命周期
分⽚的内部原理
-
什么是 ES 的分⽚
- ES 中最⼩的⼯作单元 / 是⼀个 Lucene 的 Index
-
⼀些问题:
-
为什么 ES 的搜索是近实时的(1 秒后被搜到)
-
ES 如何保证在断电时数据也不会丢失
-
为什么删除⽂档,并不会⽴刻释放空间
-
倒排索引不可变性
-
倒排索引采⽤ Immutable Design,⼀旦⽣成,不可更改
-
不可变性,带来了的好处如下:
-
⽆需考虑并发写⽂件的问题,避免了锁机制带来的性能问题
-
⼀旦读⼊内核的⽂件系统缓存,便留在哪⾥。只要⽂件系统存有⾜够的空间,⼤部分请求就会直接请求内 存,不会命中磁盘,提升了很⼤的性能
-
缓存容易⽣成和维护 / 数据可以被压缩
-
-
不可变更性,带来了的挑战:如果需要让⼀个新的⽂档可以被搜索,需要重建整个索引。
Lucene Index
image.png-
在 Lucene 中,单个倒排索引⽂件被称为 Segment。Segment 是⾃包含的,不可变更的。 多个 Segments 汇总在⼀起,称为 Lucene 的 Index,其对应的就是 ES 中的 Shard
-
当有新⽂档写⼊时,会⽣成新 Segment,查询 时会同时查询所有 Segments,并且对结果汇 总。Lucene 中有⼀个⽂件,⽤来记录所有 Segments 信息,叫做 Commit Point
-
删除的⽂档信息,保存在“.del”⽂件中
什么是 Refresh
image.png-
将 Index buffer 写⼊ Segment 的过程叫 Refresh。Refresh 不执⾏ fsync 操作
-
Refresh 频率:默认 1 秒发⽣⼀次,可通过 index.refresh_interval 配置。Refresh 后, 数据就可以被搜索到了。这也是为什么 Elasticsearch 被称为近实时搜索
-
如果系统有⼤量的数据写⼊,那就会产⽣很 多的 Segment
-
Index Buffer 被占满时,会触发 Refresh,默 认值是 JVM 的 10%
什么是 Transaction Log
image.png-
Segment 写⼊磁盘的过程相对耗时,借助 ⽂件系统缓存,Refresh 时,先将 Segment 写⼊缓存以开放查询
-
为了保证数据不会丢失。所以在 Index ⽂ 档时,同时写 Transaction Log,⾼版本 开始,Transaction Log 默认落盘。每个 分⽚有⼀个 Transaction Log
-
在 ES Refresh 时,Index Buffer 被清空, Transaction log 不会清空
什么是 Flush
image.png-
ES Flush & Lucene Commit
-
调⽤ Refresh,Index Buffer 清空并 且 Refresh
-
调⽤ fsync,将缓存中的 Segments 写⼊磁盘
-
清空(删除)Transaction Log
-
默认 30 分钟调⽤⼀次
-
Transaction Log 满 (默认 512 MB)
-
Merge
-
Segment 很多,需要被定期被合并
- 减少 Segments / 删除已经删除的⽂档
-
ES 和 Lucene 会⾃动进⾏ Merge 操作
- POST my_index/_forcemerge
本节知识点回顾
-
Shard 和 Lucene Index
- Index Buffer / Segment / Transaction Log
-
Refresh & Flush
-
Merge
生命周期
1)客户端发起数据写入请求,对你写的这条数据根据_routing规则选择发给哪个Shard。
-
确认Index Request中是否设置了使用哪个Filed的值作为路由参数,
-
如果没有设置,则使用Mapping中的配置,
-
如果mapping中也没有配置,则使用_id作为路由参数,然后通过_routing的Hash值选择出Shard,最后从集群的Meta中找出出该Shard的Primary节点。
2)写入请求到达Shard后,先把数据写入到内存(buffer)中,同时会写入一条日志到translog日志文件中去。
-
当写入请求到shard后,首先是写Lucene,其实就是创建索引。
-
索引创建好后并不是马上生成segment,这个时候索引数据还在缓存中,这里的缓存是lucene的缓存,并非Elasticsearch缓存,lucene缓存中的数据是不可被查询的。
3)执行refresh操作:从内存buffer中将数据写入os cache(操作系统的内存),产生一个segment file文件,buffer清空。
-
写入os cache的同时,建立倒排索引,这时数据就可以供客户端进行访问了。
-
默认是每隔1秒refresh一次的,所以es是准实时的,因为写入的数据1秒之后才能被看到。
-
buffer内存占满的时候也会执行refresh操作,buffer默认值是JVM内存的10%。
-
通过es的restful api或者java api,手动执行一次refresh操作,就是手动将buffer中的数据刷入os cache中,让数据立马就可以被搜索到。
-
若要优化索引速度, 而不注重实时性, 可以降低刷新频率。
4)translog会每隔5秒或者在一个变更请求完成之后,将translog从缓存刷入磁盘。
-
translog是存储在os cache中,每个分片有一个,如果节点宕机会有5秒数据丢失,但是性能比较好,最多丢5秒的数据。。
-
可以将translog设置成每次写操作必须是直接fsync到磁盘,但是性能会差很多。
-
可以通过配置增加transLog刷磁盘的频率来增加数据可靠性,最小可配置100ms,但不建议这么做,因为这会对性能有非常大的影响。
5)每30分钟或者当tanslog的大小达到512M时候,就会执行commit操作(flush操作),将os cache中所有的数据全以segment file的形式,持久到磁盘上去。
-
第一步,就是将buffer中现有数据refresh到os cache中去。
-
清空buffer 然后强行将os cache中所有的数据全都一个一个的通过segmentfile的形式,持久到磁盘上去。
-
将commit point这个文件更新到磁盘中,每个Shard都有一个提交点(commit point), 其中保存了当前Shard成功写入磁盘的所有segment。
-
把translog文件删掉清空,再开一个空的translog文件。
-
flush参数设置:
-
index.translog.flush_threshold_period:
-
index.translog.flush_threshold_size:
-
控制每收到多少条数据后flush一次
-
index.translog.flush_threshold_ops:
-
6)Segment的merge操作:
-
随着时间,磁盘上的segment越来越多,需要定期进行合并。
-
Es和Lucene 会自动进行merge操作,合并segment和删除已经删除的文档。
-
我们可以手动进行merge:POST index/_forcemerge。一般不需要,这是一个比较消耗资源的操作。