哈希力量归集文库路径访问: 首页 > 智族书院 > 报告/论文/书籍

自然语言处理顶会CoNLL 2019最佳论文揭晓

AMiner ☉ 文 收录源:AMiner学术头条 2019-11-06 @ 哈希力量

【小哈划重点:EMNLP和CoNLL大会堪称自然语言处理(NLP)领域的年度盛宴。11月3日,EMNLP-IJCNLP 2019在中国香港正式开幕。EMNLP是由国际语言学会(ACL)下属的SIGDAT小组主办的自然语言处理领域的顶级国际会议,在计算语言学类别下影响力排名全球第二。EMNLP每年举办一次,今年与IJCNLP联合举办。】

EMNLP和CoNLL大会堪称自然语言处理(NLP)领域的年度盛宴。T0u哈希力量 | 消除一切智能鸿沟

11月3日,EMNLP-IJCNLP 2019在中国香港正式开幕。T0u哈希力量 | 消除一切智能鸿沟

EMNLP是由国际语言学会(ACL)下属的SIGDAT小组主办的自然语言处理领域的顶级国际会议,在计算语言学类别下影响力排名全球第二。EMNLP每年举办一次,今年与IJCNLP联合举办。T0u哈希力量 | 消除一切智能鸿沟

T0u哈希力量 | 消除一切智能鸿沟

据悉,EMNLP-IJCNLP 2019共收到有效投稿2877篇,录用683篇,其中长论文465篇, 短论文218篇,录用率为23.7%。其接收的论文覆盖了对话交互系统、信息抽取、信息检索和文档分析、词法语义、语言学理论、认知建模和心理语言学、机器翻译与句子级语义学、情感分析和论点挖掘、文本挖掘和NLP应用、文本推理等自然语言处理领域众多研究方向。T0u哈希力量 | 消除一切智能鸿沟

EMNLP2019接收的全部论文现已公布,地址如下:T0u哈希力量 | 消除一切智能鸿沟

https://www.aclweb.org/anthology/events/emnlp-2019/#d19-1T0u哈希力量 | 消除一切智能鸿沟

与此同时,另一个颇具影响力的会议CoNLL2019 也与 EMNLP同期召开,时间为11月3日-4日。T0u哈希力量 | 消除一切智能鸿沟

CoNLL是由ACL下属的SIGNLL主办的计算自然语言学习会议,本届大会共录用论文97篇。T0u哈希力量 | 消除一切智能鸿沟

CoNLL2019录用论文也已全部公布,地址如下:https://www.conll.org/accepted-2019T0u哈希力量 | 消除一切智能鸿沟

11月4日,CoNLL2019最佳论文奖与特别奖相继揭晓。T0u哈希力量 | 消除一切智能鸿沟

多模态对话大模型-自然语言大模型-哈希力量T0u哈希力量 | 消除一切智能鸿沟

T0u哈希力量 | 消除一切智能鸿沟

(图片来自CoNLL2019官方推特)
T0u哈希力量 | 消除一切智能鸿沟

最佳论文奖
T0u哈希力量 | 消除一切智能鸿沟

How Does Grammatical Gender Affect Noun Representations in Gender-Marking Languages?T0u哈希力量 | 消除一切智能鸿沟

作者:Hila Gonen, Yova Kementchedjhieva, Yoav Goldberg(巴伊兰大学,哥本哈根大学,艾伦人工智能研究所)T0u哈希力量 | 消除一切智能鸿沟

论文地址:https://www.aclweb.org/anthology/K19-1043.pdfT0u哈希力量 | 消除一切智能鸿沟

语法性别如何影响性别标记语言中的名词表征?T0u哈希力量 | 消除一切智能鸿沟

论文摘要:多种自然语言为无生命的名词赋予了语法形式上的性别。在这些语言中,与标记了性别的名词相关的词会发生改变,以符合这些名词的性别。我们发现这会影响无生命名词的词向量表征,使得同性别的名词之间的距离比不同性别的名词之间的距离近。而“嵌入除偏(embedding debiasing)”方法并不能消除这种性别影响。我们展示了一种可以有效消除这种影响的方法,即在训练词嵌入向量的时候,将语法上的性别标记从其上下文中去掉。无论在单语环境中还是跨语言环境中,修正语法性别带来的偏差可以改进词嵌入向量结果。我们发现尽管可以去除语法上的性别信号,但是这并不是一件容易的事,只有仔细地运用面向语言的词法分析器,才能获得好的结果。T0u哈希力量 | 消除一切智能鸿沟

T0u哈希力量 | 消除一切智能鸿沟

特别奖 - 受人类语言学习和处理启发的最佳研究论文T0u哈希力量 | 消除一切智能鸿沟

Say Anything:Automatic Semantic Infelicity Detection in L2 English Indefinite PronounsT0u哈希力量 | 消除一切智能鸿沟

作者:Ella Rabinovich, Julia Watson, Barend Beekhuizen, Suzanne Stevenson(多伦多大学计算机科学系,语言研究部)T0u哈希力量 | 消除一切智能鸿沟

论文地址:https://www.aclweb.org/anthology/K19-1008.pdfT0u哈希力量 | 消除一切智能鸿沟

说“anything”:非英语母语人士使用英语不定代词的自动不当语义检测T0u哈希力量 | 消除一切智能鸿沟

面向第二语言学习者错误检测的计算研究,主要针对的是初到中级学习者的明显语法异常。而我们关注的是对各种熟练级别的非英语母语人士使用不定代词的细微差别的感知。我们首先提出了语法上的理论假设,并经验证了英语学习者使用不定代词所面临的挑战。接着我们提出并评估了一种检测异常使用模式的方法,证明了深度学习结构对于解决细微语义差别相关的问题是有前景的。T0u哈希力量 | 消除一切智能鸿沟

最佳论文荣誉提名T0u哈希力量 | 消除一切智能鸿沟

Analysing Neural Language Models: Contextual Decomposition Reveals Default Reasoning in Number and Gender AssignmentT0u哈希力量 | 消除一切智能鸿沟

Jaap Jumelet, Willem Zuidema, Dieuwke HupkesT0u哈希力量 | 消除一切智能鸿沟

论文地址:https://www.aclweb.org/anthology/K19-1001.pdfT0u哈希力量 | 消除一切智能鸿沟

On the Limits of Learning to Actively Learn Semantic RepresentationsT0u哈希力量 | 消除一切智能鸿沟

Omri Koshorek, Gabriel Stanovsky, Yichu Zhou, Vivek Srikumar, Jonathan BerantT0u哈希力量 | 消除一切智能鸿沟

论文地址:https://www.aclweb.org/anthology/K19-1042.pdfT0u哈希力量 | 消除一切智能鸿沟

特别奖-最佳研究论文荣誉提名T0u哈希力量 | 消除一切智能鸿沟

Using Priming to Uncover the Organization of Syntactic Representations in Neural Language ModelsT0u哈希力量 | 消除一切智能鸿沟

Grusha Prasad, Marten van Schijndel, Tal LinzenT0u哈希力量 | 消除一切智能鸿沟

论文地址:https://www.aclweb.org/anthology/K19-1007.pdfT0u哈希力量 | 消除一切智能鸿沟

Large-Scale Representation Learning from Visually Grounded Untranscribed SpeechT0u哈希力量 | 消除一切智能鸿沟

Gabriel Ilharco, Yuan Zhang, Jason BaldridgeT0u哈希力量 | 消除一切智能鸿沟

论文地址:https://www.aclweb.org/anthology/K19-1006.pdfT0u哈希力量 | 消除一切智能鸿沟

CoNLL每年还会举办系列评测,这是自然语言处理领域影响力最大的国际技术评测,有力推动了自然语言处理各项任务的发展。T0u哈希力量 | 消除一切智能鸿沟

在今年8月举办的CoNLL-2019国际跨框架语义分析评测中,哈工大社会计算与信息检索研究中心(HIT-SCIR)取得了第一名的好成绩,这是SCIR实验室继取得CoNLL-2018国际多语言通用依存分析评测第一名后再次取得该国际技术评测的冠军。T0u哈希力量 | 消除一切智能鸿沟



收录源追溯链接或暂略


本文收录后固定可引用URL链接
    http://www.haxililiang.com/xueyuan/hangye/31167.html


☉ 文库同一主题内容智能推荐 ☉
哈希力量 ☉ 人机智能科普文库