Coarse-to-Fine Question Answerin

2018-04-06  本文已影响0人  myFamily329

Coarse-to-Fine Question Answering for Long Documents

用于长文档的粗读到精度问题回答(问答)

说明:本篇翻译文章来源于2017年ACL会议(ACL会议(Annual Meeting of the Association for Computational Linguistics)是自然语言处理与计算语言学领域最高级别的学术会议,由计算语言学协会主办,每年一届。)
本篇主要对其文章作者,摘要,介绍,结论做出翻译(翻译的精准性有待商榷)如感觉有兴趣详细查看,论文下载网址为:http://xueshu.baidu.com/s?wd=paperuri%3A%28535c5d1f5e86cce262c93190391ea8f5%29&filter=sc_long_sign&tn=SE_xueshusource_2kduw22v&sc_vurl=http%3A%2F%2Farxiv.org%2Fpdf%2F1611.01839&ie=utf-8&sc_us=14658366042667424707
文章总体背景描述:

大规模文档中检索答案在时间有效性上目前仍是一大挑战,由华盛顿大学和谷歌等多家机构联合发表的这篇文章中,针对大规模文档检索提出了一种高效检索并保持甚至提高目前最先进模型性能的架构 - 模型分层对文档检索。
首先使用快速模型从大规模文档中选择问题相关的少量句子:使用三种不同句子简单表示方式处理大规模文档,然后利用Hard或Soft注意力机制得到文档的一个摘要表示,并使用三种不同方式选择少量候选句子,然后才用相对慢速的端到端神经网络模型从候选句子中产生最终结果。在WIKIREADING部分数据集上,实验结果显示此框架可以比基础模型检索速度高出3.5到6.7倍。
(来源:专栏 | 腾讯AI Lab独家解析:深度聚焦ACL 2017三大研究领域,其中还有多篇ACL文章)

相关作者

摘要

We present a framework for question answering that can efficiently scale to longer documents while maintaining or even improving performance of state-of-the-art models.
我们提出了一个问答框架,可以有效地扩展到更长的文档,同时保持甚至提高最先进模型的性能
While most successful approaches for reading comprehension rely on recurrent neural networks (RNNs), running them over long documents is prohibitively slow because it is difficult to parallelize over sequences.
虽然大多数成功的阅读理解方法以来于卷积神经网络(RNNs),但在长文档上运行它们的速度过于缓慢,因为很难在序列上并行化。
Inspired by how people first skim the document, identify relevant parts, and carefully read these parts to produce an answer, we combine a coarse, fast model for selecting relevant sentences and a more expensive RNN for producing the answer from those sentences.
受到人们首先浏览文档,识别相关部分并仔细阅读这些部分以得出答案的启发,我们结合了一个粗略快速的模型来选择相关句子和一个更高代价的RNN,以便从这些句子中产生答案。
We treat sentence selection as a latent variable trained jointly from the answer only using reinforcement learning. Experiments demonstrate the state of the art performance on a challenging subset of the WIKIREADING dataset (Hewlett et al., 2016) and on a new dataset, while speeding up the model by 3.5x-6.7x.
我们把句子选择当作一个潜在变量,只用强化学习从答案中共同训练。实验展示了WIKIREADING 数据集(Hewlett et al., 2016)具有挑战性的子集以及新数据集的性能表现,同时将模型速度提高了3.5x-6.7x。

介绍

结论

We presented a coarse-to-fine framework for QA over long documents that quickly focuses on the relevant portions of a document.
我们针对长文档中的QA提出了一个从粗到精的框架,可快速关注文档的相关部分。
In future work we would like to deepen the use of structural clues and answer questions over multiple documents, using paragraph structure, titles, sections and more.
在今后的工作中,我们希望通过使用段落结构,标题,章节等,深化结构线索的使用并回答多个文档的问题。
Incorporating coreference resolution would be another important direction for future work. We argue that this is necessary for developing systems that can efficiently answer the information needs of users over large quantities of text.
结合共识解决方案将是未来工作的另一个重要方向。 我们认为,这对于开发能够高效回应用户大量文本信息需求的系统是必要的。

好好学习,天天向上。今天也是。
上一篇 下一篇

猜你喜欢

热点阅读