paper_review

Paper Reading 2017 02 10

2017鸡年第一波论文阅读总结及推荐 引 本次推荐论文如下: Structured prediction models for RNN based sequence labeling in clinical text. EMNLP 2016. Sentence rewriting for semantic parsing. ACL 2016. Adversarial training methods for semi-supervised text classification.

Paper Summary Seq2tree

Language to Logic Form with Neural Attention 作者 Li Dong, Mirella Lapata li.dong@ed.ac.uk, mlap@inf.ed.ac.uk 单位 Institute for Language, Cognition and Computation School of Informatics, University of Edinburgh 10 Crichton Street, Edinburgh EH8 9AB

论文推荐:zero-shot learning for spoken language understanding(SLU)

论文推荐:zero-shot learning for SLU 引 在传统的口语语义理解中,我们往往都是在一个预先定义好的对话领域(predefined domain)内进行研究,比如领域专家或者开发人员在“航班”领域中定义语义槽(slot)“出发城市”、“出发时间”等,以及每个slot可能对应的值(“出发城市”——“北京,上海,…”、“出发时间”——“上午八点,下午两点,…”等)。 即使假设我们可以负担的起对一个新领域的快速定义(定义用户意图、语义槽值等语义框架),如果我们计划使用有监督学习的方法训练一个语义解析器,那还需要足量的标注数据,比如在“航班”领域中有标注数据——“从[北京:from.city]去[上海:to.city]的机票”。但是,获取大量的标注数据是十分的耗时且人力成本很高的。所以zero-shot learning的原理被引入到SLU中,旨在利用少量甚至数量为零的训练数据得到一个覆盖所有领域内语义项的语义解析器。 zero-shot learning的定义:学习分类器 \(f : X \rightarrow Y \),其中语义类别\(Y\)并没有在训练数据中出现过。即zero-shot learning的目标是为没有观察的标签学习相应的模型。 关于zero-shot learning for SLU的推荐论文如下: Online Adaptative Zero-shot Learning Spoken Language Understanding Using Word-embedding.