语义召回模型-TwinBert

2021-02-22  本文已影响0人  南朝容止

Microsoft在2020年提出了TwinBERT: Distilling Knowledge to Twin-Structured Compressed BERT Models for Large-Scale Retrieval这篇论文。今天有幸看了看,简单的跟大家分享下。

解决问题

论文主要解决的问题是:性能~ 性能~ 性能~~~

Online Server需要快速处理,尤其是在召回阶段,面对上亿级Doc,为此减少在线计算大势所趋。

架构原理

TwinBert就是在这种背景下应运而生的,如下图结构:


image.png

主要讲下上面这张图:

  1. 两个对称的Bert, 左边的Bert用于Query建模,右边的Bert用于Title keyword建模(或者Doc Context keyword建模)。
  2. 两个Bert走完后,再各自经过一个Pooling Layer,池化层,听起来很高大上,其实很简单,主要是将序列中每个token的向量搞在一起,做成一个向量。 Query做成一个向量, keyword做成一个向量,以方便进行后面的Cross Layer的交互。 池化层有两个操作二选一,【用CLS】 或者 【所有tokens向量平均加权起来】,其中后者权重是学出来的。

*Transformer Encoder
这里不多说,其中L用的是6层。

*Cross Layer
Query做成一个向量q, keyword做成一个向量k,二者进行距离计算,有两种方式,一种是余弦相似度,如下图:


image.png

另一种是Residual network, 这里不多讲,有兴趣,自身翻阅。

如何训练?

蒸馏方法训练。

然后做一个做交叉熵 cross entropy。如下面公式:


image.png

优点

节省性能,Query在线用Bert预测, Doc提前离线算好刷到索引。在线只需要做一次Query Bert预测,以及与Doc的向量计算。

上一篇 下一篇

猜你喜欢

热点阅读