AAAI2020 录用结果公布,审稿争议引发讨论及入选论文概览
AAAI2020 录用结果公布,接收率 20.6%。本届大会投稿量创新高,但审稿质量引发广泛争议,高分拒稿现象频发。清华刘知远等专家回应称审稿压力导致质量下降,需反思改进机制。会议将于 2 月在美国纽约举办,邀请多位图灵奖得主。本文整理了吉林大学、清华大学、哈尔滨工业大学及厦门大学等高校入选的八篇代表性论文,涵盖符号网络、文本分类、医学 NLP、故事结局预测、对话生成及数据增强等领域,供研究者参考。

AAAI2020 录用结果公布,接收率 20.6%。本届大会投稿量创新高,但审稿质量引发广泛争议,高分拒稿现象频发。清华刘知远等专家回应称审稿压力导致质量下降,需反思改进机制。会议将于 2 月在美国纽约举办,邀请多位图灵奖得主。本文整理了吉林大学、清华大学、哈尔滨工业大学及厦门大学等高校入选的八篇代表性论文,涵盖符号网络、文本分类、医学 NLP、故事结局预测、对话生成及数据增强等领域,供研究者参考。

AAAI2020 于 2 月 7 日 -2 月 12 日在美国纽约举办,由 IBM Research 科学家 Francesca Rossi 担任大会主席。该协会成立于 1979 年,是全球人工智能领域的顶级国际会议。此次大会特别邀请了 2018 年图灵奖得主 Yoshua Bengio、Geoffrey E.Hinton 以及 Yann LeCun 作为特别嘉宾分享探讨。
本届大会收到了 8800 篇提交论文,最终有效投稿达到 7737 篇,接收 1591 篇,接收率 20.6%。相比去年的 16.2%,稍有提升。国内高校此次收获颇丰,例如上海交通大学计算机系同学中了七篇,哈尔滨工业大学社会计算与信息检索研究中心共 8 篇长文被录用,刘知远老师团队也有 5 篇论文入选。
在公布录用结果后,本届 AAAI 的评审质量受到了广泛质疑。知乎等平台有关'如何评价 AAAI2020 审稿'的帖子中,评论区的留言大相径庭。有网友认为评委意见客观公正,但更多网友对部分结果表示质疑。例如有分数是 9-8-6 无理由被拒,还有得 9-9-7 的竟也凉凉。很多 CV 与 NLP 方向的论文都是高分杯具。
除了被拒吐槽,有审稿人也跟帖坦言如今的审稿机制令人堪忧。清华刘知远老师作为本次大会的 SPC,在知乎回复了大家有关审稿的相关质疑。在他看来审稿问题不能一概而论并表达了自己的观点,同时也给论文没中的同学指点迷津。
从此次 AAAI 放榜结果来看,顶会审稿机制不只一次被吐槽。随着 AI 研究的火爆,各大顶会都受到了论文翻倍增长的压力。一方面是投稿论文的剧增,另一方面是专业审稿人的严重不足,导致审稿质量大幅下降,引得投稿人怨声连连。这也暴露出越来越多的问题,比如顶会论文'灌水'的做法已经带来了硕士生博士生申请门槛越来越高、参会门票难以购买、审稿人年轻化等问题,这都需要领域内的学者们反思并设计改进方案。
以下整理部分入选论文供大家参考学习:
作者: 黄强,孙慧妍,Makoto Yamada 等(吉林大学,京都大学) 摘要: 本文提出了一种适用于符号网络的非线性特征选择算法 SignedLasso,采用 HSIC Lasso 非线性特征选择算子,将特征映射到高维空间中,捕捉特征与输出之间的非线性依赖关系,同时结合网络中的正链接和负链接信息,为符号网络进行特征选择。
作者: 李玉,张嘉洧等(吉林大学,美国佛罗里达州立大学) 摘要: 本文考虑符号网络中正负边关系及节点对其相邻节点的重要性不同,在结构平衡理论的基础上,结合图卷积神经网络与图注意力机制,生成符号网络中节点的嵌入式表示。
作者单位: 清华大学 摘要: 相对于 LSTM 等序列模型,图神经网络能够以更加灵活的方式获取复杂的结构信息构建表示。而单一的图结构不足以有效的刻画丰富的信息,因此多图联合学习至关重要。本研究中我们提出了一种通用的多图联合学习架构:张量图神经网络模型 TensorGCN。该联合学习框架通过图内和图间同时进行消息传递的方式进行多源异构图信息的有效融合。我们将 TensorGCN 框架应用于文本分类任务,对文本数据分别建立语义图、语法图、和序列图,并进行多图联合学习,在多个公开数据集上均获得了性能的有效改进,达到了 state-of-the-art 效果。
作者: Xiao Zhang,Dejing Dou,Ji Wu(清华大学,俄勒冈大学) 论文地址: https://arxiv.org/pdf/1908.06203.pdf 摘要: 结构化知识经常可以在 NLP 任务中提供辅助,我们提出名为概念上下文表示(CC-embedding)的一种文本表示模型,将结构化知识结合到了上下文表示网络中。模型可以直接用于 NLP 任务中作为表示层,无需改动任务模型即可将知识库中的知识引入到 NLP 任务中。我们研究了在大规模医学知识库(UMLS)和医学文本处理上的有效性,发现模型在概念层次表现了较好的泛化性能,在多种基于电子病历(EHR)的文本处理任务上获得明显性能提升。
作者: 崔一鸣,车万翔,张伟男,刘挺,王士进,胡国平(哈尔滨工业大学) 摘要: 故事结局预测(Story Ending Prediction)任务的目标是让机器阅读故事并且根据上下文以及常识从两个候选结局中挑选出正确的结局。为了解决这个问题,我们提出了 Diff-Net 模型来更好地建模两个结局的差异性。该模型能够从三个层面对结局的不同点进行建模:上下文级别、故事理解级别、区分性级别。在 Story Cloze Test(SCT)数据集上的实验结果表明该模型能够显著提升故事结局预测的效果,并且我们给出了详细的消融实验来验证模型的有效性。除此之外,我们也详细分析了传统神经网络模型和基于 BERT 的模型在 SCT v1.0 和 v1.5 下的表现,并且得到了一些有趣的发现,这对于未来在该任务上的研究有一定的价值。
作者: 宋皓宇,张伟男,胡景雯,刘挺(哈尔滨工业大学) 摘要: 一致性问题是对话生成任务面临的主要挑战之一。高质量的对话不仅需要对输入作出自然的回复,而且还需要保持一致的角色特征。在这项工作中,我们利用了文本蕴含技术建模了人物角色的一致性问题。不同于已有的基于重排序的工作,我们把该项任务建模为强化学习问题,并利用文本蕴含信号优化对话生成模型。具体来说,我们的生成模型使用了基于注意力机制的编码器 - 解码器来生成基于角色文本的回复。另一方面,我们的评估器由两部分组成:一个由对抗训练方法训练得到的自然度模块和一个基于文本蕴含的一致性模块。此外,我们引入了另一个性能良好的文本蕴含模型来客观评价生成回复的角色一致性。我们进行了定性和定量的实验,结果表明,我们的方法优于强基线模型,尤其是在生成回复的角色一致性方面。
作者: Zhun Zhong,Liang Zheng,Guoliang Kang,Shaozi Li,Yi Yang(厦门大学) 摘要: 本文介绍了一种用于卷积神经网络(CNN)训练新的数据增强方法——随机删除法。在训练中,随机擦除随机选择图像中的矩形区域,并使用随机值擦除其像素。在此过程中,生成不同遮挡程度的训练图像,降低了过拟合的风险,使模型对遮挡具有鲁棒性。随机擦除无需参数学习,易于实现,可与大多数基于 CNN 的识别模型集成。尽管简单,随机删除是对常用的数据增强技术(如随机裁剪和翻转)的补充,并且在图像分类、目标检测和行人重新识别方面比强基线有一致的改进。
作者: Fengxiang Yang,Ke Li,Zhun Zhong,Zhiming Luo,Xing Sun,Hao Cheng,Xiaowei Guo,Feiyue Huang,Rongrong Ji,Shaozi Li(厦门大学) 摘要: 行人重识别是一项具有挑战性的工作,因为身份样本和成像条件的高度差异。尽管近年来在深层学习领域的研究取得了显著的成果,但很少有研究能够很好地应用到不可见的目标领域。目前流行的解决方案是通过聚类给未标记的目标图像分配伪标记,然后再对模型进行再训练。然而,聚类方法往往会引入噪声标签,并将低置信度样本作为离群点丢弃,这可能会阻碍再训练过程,从而限制泛化能力。在这项研究中,我们认为,通过在聚类之后显式地添加一个样本过滤过程,挖掘出的样本可以更有效地使用。为此,我们设计了一个非对称的协同教学框架,该框架通过协同两个模型选择彼此可能有干净标签的数据来抵抗噪声标签。同时,其中一个模型接收尽可能纯净的样本,而另一个模型接收尽可能多样的样本。此过程鼓励所选训练样本既干净且又杂,并且这两个模型可以迭代相互促进。大量的实验表明,该框架能够始终如一地提高大多数基于聚类方法的适应精度。
怎么在面对海量投稿的同时又能给出高质量的审稿回复,可谓任重道远。希望上述论文能为相关领域的研究者提供参考。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML转Markdown 互为补充。 在线工具,Markdown转HTML在线工具,online