2021NIPS-(微软bing高维搜索引擎)SPANN: Hi

2021-11-13  本文已影响0人  Caucher

标题:SPANN:高效的十亿级别近似相似性搜索

编者的总结

  1. 整体结构就是K-means tree(有基于图的查询优化),平衡K-means的手段就是分层迭代,每一层的扇出(K)设置的小一点。
  2. 另一个贡献是把边缘点重复放置分区,并基于RNG剪枝掉距离太近的分区不做放置。

编者的思考

  1. 聚类中心太多了,接近20%的数据点,仍然会对内存负载过高。
  2. 分布式的设计仍有待考量。

Abstract

目前的内存ANNS算法虽然召回极高,但是资源消耗过于昂贵。
本文提的SPANN算法,是内存-磁盘混合型索引系统,使用少量的内存和SSD,基于反转索引的思想。

1 Introduction

在本文之前,混合型索引系统中的STOA是DiskANN:https://www.jianshu.com/p/07ed2202f107
其余图算法均是纯内存的。

2 Background and Related Work

对于ANNS问题,扩展性到达十亿级别的分两类:

3 SPANN

3.1 Challenges

3.2 Key techniques to address the challenges

3.2.1 Posting length limitation

本文利用了下面这个式子:


image.png

式子分为两部分,第一部分描述分区的质量,即所有数据距离其对应中心点的距离和。第二部分描述均衡性,即各分区size的方差。

由于本文的N十分巨大,所以不能直接利用此式。
作者采用的方式是K-means tree,直到每个分区size达标,每一层的K都相对较小。

image.png
为了节省一些时间,作者把聚类中心换成离聚类中心最近的数据点。针对这些点,还可以把K-means tree换成RNG图来加速搜索。
https://github.com/microsoft/SPTAG

3.2.2 Posting list expansion

对于分区边界点,如果一个点和一个其他分区中心点的距离,和当前分区中心点的距离差不太多,那么就重复放置一次,如下图:


image.png

3.2.3 Query-aware dynamic pruning

query只搜索和最近聚类中心距离(1+\epsilon)倍的聚类中心。

4 Experiment

4.2 SPANN on single machine

4.2.1 Comparison with state-of-the-art billion-scale disk-based ANNS algorithms

4.2.2 Comparison with state-of-the-art all-in-memory ANNS algorithms

4.2.3 Ablation studies

上一篇 下一篇

猜你喜欢

热点阅读