2019TKDE-(近似KNN算法的比较)Approximate

2021-08-19  本文已影响0人  Caucher

标题:高维数据近似NN搜索-实验、分析、优化
这是一篇针对广义KNN算法的综述实验性文章

1 INTRODUCTION

1.1 Motivation

  1. 作者的初衷是把不同领域(比如机器学习ML,多媒体MM,数据库DB,工业界)的能解决同一个问题(近似NN,ANNS)的方法拿出来,进行比较。
  2. ANNS算法可以由多个层面去衡量:
  1. 目前各种实验里的结果有很多是矛盾的,虽然可以归因于实验设置不同,但是缺乏统一的比较,作者来做这件事。

2 BACKGROUND

2.1 Problem Definition

d维向量,距离是欧式距离。

3 RELATED WORK

3.1 Hashing-based Methods

3.1.1 Locality Sensitive Hashing(LSH)

和数据分布无关的哈希。依靠一组局部敏感的哈希函数,把邻近的数据点哈希更大概率到同一个哈希码上。
构建多个哈希表,根据碰撞确定KNN。
哈希函数是LSH方法的关键,有静态的符合哈希函数,也有动态的碰撞技术策略。

3.1.2 Learning to Hash (L2H)

根据数据分布确定哈希函数。
相似性维持(similarity-preserving)是L2H方法的关键。在原来的向量空间相似,在哈希码空间上也要尽量相似。
L2H方法可以分为几类:

3.2 Partition-based Methods

分区的方法主要是将多维空间分成若干个不相交的区域,查询时首先定位到Query所属的区域,然后在该区域及其附近搜索KNN。
分区方法主要分为三类:

3.3 Graph-based Methods

图的方法是构造一个邻近图,每个数据点作为一个顶点,边来描述数据点之间的临近关系。遵循的原则就是:邻居的邻居大概率也是我的邻居。主要也分为两类。

4 DIVERSIFIED PROXIMITY GRAPH

作者这个综述做着做着,从实验分析中得到了一些insights,于是自己动手做了改进,就是这个DPG。

4.1 Motivation

DPG是根据KNN图改编的。

4.2 Diversified Proximity Graph

至于这个图的构建过程也比较简单,从原来的每个节点的KNN list里面,筛选出r个点,要求这个r个点成对之间的平均夹角是最大的(diversified),让p和这r个点双向连接。
具体于这r个点是怎么选的,首先选一个起始点,然后按照贪心选择从list里面选一个可以使得平均角度最大的点。
经过实验,r一般为K的一半效果最好。

5 EXPERIMENTS

【未完待续】

上一篇下一篇

猜你喜欢

热点阅读