论文随便读:Recurrent Convolutional Ne

2018-07-27  本文已影响0人  Doris冬月

论文来源:Lai, S., Xu, L., Liu, K., & Zhao, J. (2015, January). Recurrent Convolutional Neural Networks for Text Classification. In AAAI (Vol. 333, pp. 2267-2273). 下载戳这里哦

参考文章:https://blog.csdn.net/rxt2012kc/article/details/73742362

一、概述

 提出了一种可以利用单词的上下文信息的双向循环结构进行文本分类,命名为RCNN网络,它可以在时间复杂度为O(n)的前提下,提升文本分类的准确率
论文中提出RCNN可以较均匀的利用单词的上下文信息,既可以缓解在RNN中后面的单词比前面的单词影响力更大的缺点,也不需要像CNN一样需要通过窗口大小来设定对上下文的依赖长度。

二、网络结构

 可以从图片中看到,每一个单词的embedding方式主要有3个部分concat组成:left context ;单词本身的embedding;righ context,w代表单词。



实验结果如下:



对比的算法包括传统的文本分类方法,以及相关论文中提到的算法,然后对结果进行了一系列的分析,从分类准确率和时间性能两方面去分析算法的优势。
上一篇下一篇

猜你喜欢

热点阅读