论文阅读“Contrastive Learning-Enhanc

2022-12-02  本文已影响0人  掉了西红柿皮_Kee

Wang R, Dai X. Contrastive Learning-Enhanced Nearest Neighbor Mechanism for Multi-Label Text Classification[C]//Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers). 2022: 672-679.

摘要导读

多标签文本分类(MLTC,Multi-Label Text Classification)是自然语言处理中的一项基本且具有挑战性的任务。以往的研究主要集中在学习文本表示和建模标签相关性上。然而,在预测特定文本的标签时,这些方法忽略了现有的类似实例中的丰富知识。为了解决这一问题,本文提出了一个k最近邻(kNN)机制,该机制检索几个邻居实例并用它们的标签插值模型输出。此外,本文还设计了一个多标签对比学习目标,使模型了解kNN的分类过程,并提高了在推理过程中检索到的邻居的质量。大量的实验表明,提出的方法可以为多个MLTC模型带来一致的和可观的性能改进,包括最先进的预训练和非预训练模型。

模型浅析

如图所示,本文为MLTC设计了一个k个最近邻机制(步骤2,3),并通过使用多标签对比学习目标训练模型(步骤1)对其进行增强。总体思路是通过设计一个多标签对比学习的目标函数来辅助KNN的选取。

实验结果

可以看出,对于多标签分类任务,在特征空间检索更多相似的样本辅助标签样本的标签预测是会有效果提升的。而单纯使用基于标签的对比学习甚至会影响分类的性能,这一点。。笔者不太能理解。同时使用kNN+CL使得kNN检索的准确性进一步增强,提升了多标签分类结果。


这种方式在不需要确定正例的情况下,引入标签语义之间的相似性,约束标签空间中相似样本的特征相似度增大,同时不相似样本距离增大。
上一篇 下一篇

猜你喜欢

热点阅读