<small id='8EFBYW0zjo'></small> <noframes id='VYMR5'>

  • <tfoot id='eXHZlm'></tfoot>

      <legend id='RzGugBIQ'><style id='MJw7y4'><dir id='M3kfSh'><q id='x8oQzP4g67'></q></dir></style></legend>
      <i id='P9lVYtFbfq'><tr id='KOE8AFB6b'><dt id='Gl8z5CJwy'><q id='d0QI'><span id='X4HwzmREU'><b id='4l6VK'><form id='CdYaOX'><ins id='oVIH3c6'></ins><ul id='Ptun5No'></ul><sub id='bny6FUml2C'></sub></form><legend id='R7QJP'></legend><bdo id='1FI4Vf'><pre id='ysHP83497G'><center id='GZvYDrFJ'></center></pre></bdo></b><th id='IAywlp'></th></span></q></dt></tr></i><div id='ExmU1L2Xe'><tfoot id='0cLjhGwmKV'></tfoot><dl id='XMyUz'><fieldset id='E5y3o'></fieldset></dl></div>

          <bdo id='uKYXi5NTy9'></bdo><ul id='SgN7K'></ul>

          1. <li id='VeC7G0WXB'></li>
            登陆

            「预练习」获EMNLP最佳论文,一作为华人,哈工大刘挺教授10篇论文被接纳

            admin 2019-12-13 348人围观 ,发现0个评论

            近来,自然言语处理顶会 EMNLP 2019 在我国香港落下帷幕。在本次大会中,我国被接纳的论文数量在一切国家和区域中位居第二,哈尔滨工业大学刘挺教授有 10 篇论文被接纳。在闭幕式上,大会颁发了最佳论文奖等多个奖项。来自约翰霍普金斯大学的研讨团队摘得最佳论文奖,其一作为华人学者。

            近来,自然言语处理顶会 EMNLP 2019 在我国香港落下帷幕。在本次大会中,我国被接纳的论文数量在一切国家和区域中位居第二,哈尔滨工业大学刘挺教授有 10 篇论文被接纳。在闭幕式上,大会颁发了最佳论文奖等多个奖项。来自约翰霍普金斯大学的研讨团队摘得最佳论文奖,其一作为华人学者。

            本次大会招引了国内外许多自然言语处理范畴的专家学者参与,参会人数到达了 1920 多人。大会共举办了 18 场 Workshop、多个 Tutorial 和多场主题讲演,包含自然言语处理、社会计算学、计算机社会科学、AI 体系和深度学习等论题。

            论文投稿全体接纳状况来看,本届大会共收到有用投稿 2876 篇,接纳 683 篇,接纳率为 23.7%。

            其间,被接纳的长论文有 465 篇,包含 164 篇口头陈述和 301 篇 Poster 论文;短论文共有 218 篇,包含 48 篇口头陈述和 170 篇 Poster 论文。

            论文投稿得分状况来看,得分在 3.67 以上才干确保有很大的概率被接纳。

            投稿论文得分散布以及接纳和被拒的状况。

            论文投稿国家/区域来看,中美两国的投稿量远远大于其他国家,其间我国提交了近 1000 篇,美国也近 900 篇。虽然我国的投稿量多于美国,但美国仍然是接纳论文最多的国家。下图是论文投稿量排名前五的国家:

            投稿量前五名分别为:我国、美国、英国、日本和德国。

            别的,机器之心还参阅了学术头条关于本届EMNLP大会的报导,它们从投稿范畴、当选论文所属组织等多方面对本届大会「预练习」获EMNLP最佳论文,一作为华人,哈工大刘挺教授10篇论文被接纳进行了剖析。以下是有关这两方面的详细剖析:

            论文投稿范畴来看,投稿量排名前三的范畴依次是:用于自然言语处理(NLP)的机器学习、摘要和生成(Summarization and Generation)和机器翻译与多语化(Machine Translation and Multilinguality)。这三个范畴的接纳论文都超过了 50 篇。

            本届大会论文投稿范畴散布状况(图源:学术头条)。

            据学术头条计算,从当选论文所属组织来看,国外学界和工业界中,卡内基梅隆大学、艾伦人工智能研讨所、爱丁堡大学、加利福尼亚大学、华盛顿大学等组织的论文当选数位居前列;谷歌、Facebook、微软、IBM 等业界巨子仍然占有霸主位置;国内高校中,北大、清华、哈工大、北航、浙大、中山大学、北理工的论文选取数量位居前列,阿里巴巴、腾讯等业界巨头体现不俗。

            在本届大会一切接纳的论文中,机器之心经收拾发现,哈尔滨工业大学教授、哈工大人工智能研讨院副院长刘挺教授有 10 篇论文被接纳。

            以下是刘挺教授被接纳的 10 篇论文及论文链接:

            机器之心依据一切的投稿论文标题制作了词云,从中能够看出,生成、神经网络等是本次大会的要点重视范畴。

            各大奖项出炉

            本次 EMNLP-IJCNLP 大会颁发了最佳论文奖、最佳资源奖、最佳 Demo 奖等多个奖项,以下是详细的获奖信息。

            EMNLP-IJCNLP 2019 最佳论文奖

            本年的最佳论文奖颁给了约翰霍普金斯大学的研讨团队,他们的论文标题是《Specializing Word Embeddings(for Parsing)by Information Bottleneck》,其一作 Xiang Lisa Li 是约翰霍普金斯大学的大四学生,是一位华人「预练习」获EMNLP最佳论文,一作为华人,哈工大刘挺教授10篇论文被接纳学者,其导师是闻名 NLP 学者 Jason Eisner。

            论文链接:h钱咖ttp://cs.jhu.edu/~jason/papers/li+eisner.emnlp19.pdf

            摘要:预练习词向量,如 ELMo 和 BERT 包含了丰厚的句法和语义信息,使这些模型能够在各种使命上到达 SOTA 体现。在本文中,研讨者则提出了一个十分快速的变分信息瓶颈办法,能够用非线性的办法紧缩这些嵌入,仅保存能够协助句法解析器的信息。研讨者将每个词嵌入紧缩成一个离散标签,或许一个接连向量。在离散的办法下,紧缩的离散标签能够组成一种代替标签集。经过试验能够阐明,这种标签集能够捕捉大部分传统 POS 标签标示的信息,并且这种标签序列在语法解析的进程中更为准确(在标签质量类似的状况下)。而在接连办法中,研讨者经过试验阐明,适当地紧缩词嵌入能够在 8 种言语中发生更准确的语法解析器。这比简略的降维办法要好。

            EMNLP-IJCNLP 2019 最佳论文第二名

            本年最佳论文奖的第二名颁给了斯坦福大学的研讨团队,他们的论文标题是《Designing and Interpreting Probes with Control Tasks》。作者为 John Hewitt、Percy Liang。

            论文链接:https://www.aclweb.org/anthology/D19-1275.pdf

            摘要:练习有素的监督模型能够依据表达办法(如 ELMo)猜测特点(如词性),探测器在一系列言语使命上均具有很高的准确性。但这是否意味着这些表达办法对言语结构进行了编码,或许仅仅探测器现已学习了言语使命?在本文中,研讨者提出了操控使命,将词的类型与随机输出联络起来,以辅佐言语使命。依照设定,这些使命只能由探测器来学习。因而挑选一个适宜的探测器(能反映该表达办法的探测器)很重要,以完成较高的言语使命准确性和较低的操控使命准确性。探测器的挑选性将言语使命的准确性与本身回忆词类型的「预练习」获EMNLP最佳论文,一作为华人,哈工大刘挺教授10篇论文被接纳才能相关联。研讨者提出了用于英语词汇标示和依靠边际猜测的操控使命,并且展现了根据表达办法上的探测器是不行挑选的。

            一起他们还发现,一般用于操控探测器复杂性的滤除对进步 MLP 的挑选性是无效的,可是其他办法的正则化是有用的。最终,他们发现,虽然 ELMo 的第一层探测器比第二层探测器的词性标示精度高一些,可是第二层上的探测器更具挑选性。引出了以下问题:终究哪一层能够更好地代表词性。

            EMNLP-IJCNLP 2019 最佳资源奖

            本年的最佳资源奖颁给了 Facebook、美国索邦大学和约翰霍普金斯大学的研讨团队,他们的论文标题是《The FLORES Evaluation Datasets for Low-Resource Machine Translation: Nepali–English and Sinhala–English》。作者为 Francisco Guzmn、Peng-Jen Chen、Myle Ott、Juan Pino、Guillaume Lample 等

            论文链接:https://arxiv.org/pdf/1902.01382.pdf

            项目地址:https://github.com/facebookresearch/flores

            摘要:在机器翻译范畴,许多言语对的可用对齐语料都十分稀疏。除了在技术上要面对有约束的监督学习应战外,评价这些在低资源言语对上练习的办法也存在困难,由于可用的基准十分少。在本文中,研讨者介绍了一个用于尼泊尔语-英语、僧伽罗语-英语的 FLORES 评价数据集,该数据集根据维基百科上翻译过的语句。与英语比较,这些言语在形态学和句法学上都存在很大差异。关于这些言语,很少有范畴外的平行语料可用,但它们的免费可用单语数据十分丰厚。研讨者描绘了搜集和穿插验证翻译质量的进程,并运用几种学习办法陈述基线功能,包含彻底监督、弱监督、半监督和彻底无监督。试验标明,当时最佳的办法在这些基线上体现都十分差,这给研讨低资源言语机器翻译的社区带来了很大应战。

            EMNLP-IJCNLP 2019 最佳 Demo 奖

            本年的最佳 Demo 奖颁给了加州大学伯克利分校、艾伦人工智能研讨所、加利福尼亚大学尔湾分校的研讨团队,他们的论文标题是《AllenNLP Interpret: A Framework for Explaining Predictions of NLP Models》。作者为 Eric Wallace、Jens Tuyls、Junlin Wang、Sanjay Subramanian、Matt Gardner、Sameer Singh 等人

            论文链接:https://arxiv.org/abs/1909.09251

            项目地址:https://allennlp.org/interpret

            摘要:神经 NLP 模型正变得越来越准确,但它们远非完美,并且是不透明的。这些模型以违背直觉的办法溃散,使得用户摸不着头脑。模型解说办法经过为特定的模型猜测供给解说来减轻它们的不透明性。但是,现有的解说代码库使得这些办法在新模型和新使命中难以使用,这阻止了从业者选用这些办法,一起也给可解说性研讨带来担负。为此,来自艾伦人工智能研讨所等组织的研讨者开发了一个灵敏的 NLP 模型解说结构——AllenNLP Interpret。它能够为一切的 AlenNLP 模型和使命供给解说原语(如输入梯度)、一系列内置解说办法一级一个前端可视化组件库。

            参阅链接:https://mp.weixin.qq.com/s/IKREAyWcTH-jp8plTcAR5A

            本文为机器之心报导,转载请联络本大众号取得授权。

            ✄------------------------------------------------

            参加机器之心(全职记者 / 实习生):hr@jiqizhixin.com

            投稿或寻求报导:content@jiqizhixin.com

            广告 & 商务协作:bd@jiqizhixin.com

            请关注微信公众号
            微信二维码
            不容错过
            Powered By Z-BlogPHP