By 超神经
场景描述:AI 顶会 IJCAI 2019 已于 8 月 16 日圆满落幕。在连续 7 天的技术盛会中,与会者在工作坊了解了 AI 技术在各个领域的应用场景,聆听了 AI 界前辈的主题演讲,还有机会在圆桌会中了解, AI 发展历史故事以及最新进展与趋势。此外,会议收录的论文无疑是最受关注的内容,我们特此分领域整理了多篇精选论文,与大家分享。
关键词:IJCAI 2019 论文
人工智能顶级会议 IJCAI 2019 于 8 月 10 日至 8 月 16 日 ,在中国澳门举行并圆满落幕。
在 8 月 13 日的开幕式上,大会主办方对本次大会的论文收录情况进行了梳理。大会主席 Thomas Eiter 公布了以下信息:今年的 IJCAI 共收到 4752 篇论文提交,最终收录数量达到了历史新高 850 篇,录取率为 17.9% 。
随后大会的程序委员主席 Sarit Kraus 对论文的情况作了详细的说明,相比于去年收录的 3470 篇,今年增长率为 37% ,收录的 850 篇论文中,有 327 篇来自中国,占比 38%。
在论文的主题上,机器学习依然是最热的一个领域,收录数量为 438 篇,超过半数,此外论文数量最多的领域依次为计算机视觉,机器学习应用,自然语言处理。
提交论文中,共有 2516 篇为机器学习领域
今年共有 73 位领域主席以及 740 位高级程序委员会成员以及 2696 位程序委员会成员参与论文评审。由他们评审出来的优秀论文都有哪些呢?
百里挑一的获奖论文
IJCAI 2019 从 850 篇论文中评选出一篇杰出论文(Distinguished Paper):
论文地址:https://www.ijcai.org/proceedings/2019/0255.pdf
摘要:作者研究了一种基于对比条件下的分类问题。这种问题一般是这样的:给定一个集合,只能获得三元组信息,这个三元组的信息是三个目标的对比,如 x_i 到 x_j 的距离比 x_i 到 x_k 的距离小,怎样将 x_i 分类呢?在这篇论文中,研究人员提出了名为「TripletBoost」的算法,可以从这样的三元组数据中学习分类器。论文的主要思想是,将三元组带来的距离信息输入一个弱分类器中,可以序列化地逐步提升为一个强分类器。
这样的方法有两个优势:首先这种方法可以应用在各种矩阵空间中,另外这个方法可以解决很多领域中,只能被动获得的或者噪声的三元组信息。研究人员在论文中理论上验证了这一方法的可行性,并提出了需要获得的三元组数量的下限。通过实验,他们说这种方法相比现有的方法更好,并且能够更好的抵抗噪声。
获得 IJCAI-JAIR 最佳论文(Best Paper)的是:
论文地址:https://www.jair.org/index.php/jair/article/view/10942
注:这一奖项颁发给过去五年里发表在 JAIR 上的论文。
摘要:该论文表示,最典型的 NP 完全问题(NP-complete),布尔可满足性(SAT)和它 PSPACE-complete 泛化版的量化布尔可满足性(QAT)是声明式编程范式的核心,它能高效解决各种计算性复杂问题在现实世界中的实例。
该领域的成功是通过在 SAT 和 QSAT 决策程序的实际实现上,即 SAT 和 QSAT 求解器上的突破而实现的。在这篇论文中,研究者开发并分析了用于预处理和后处理的子句消除(clause elimination)过程。其中子句消除过程形成了一套 (P)CNF 形式化简化技术,因此在保持公式可满足性的同时,在多项式时间内去除具有特定冗余特性的子句。
除了这些获奖论文外,作为人工智能领域最火热的顶级会议之一,IJCAI 历年论文提交量与接收量都居顶会前几位,诞生其中的优秀论文还有很多。
因此,超神经从本届 IJCAI 大会最热的三个领域(Hot 3)中,分别挑选一至两篇精选论文,进行简单的介绍,从而窥斑见豹,一睹 IJCAI 的全貌。
最热领域之 Hot 1:机器学习
机器学习精选论文 1
论文地址:
https://www.ijcai.org/proceedings/2019/0609.pdf
摘要:开放式视频问答任务(Video Question Answering),是根据给定的问题,从参考的视频内容中自动生成文本的答案。
目前,现有的方法常采用多模态循环编解码器网络,但它缺乏长期的依赖关系建模,致使无法有效地应用于长视频问答中。
为了解决这个问题,作者提出了一种快速分层卷积自注意编解码器网络(HCSA)。使用具有分层卷积的自注意编码器,有效地对长视频内容进行建模。
HCSA 建立了视频序列的层次化结构,并从视频上下文中捕获具有问题感知能力的长期依赖关系。此外,还设计了一种多尺度注意力解码器,该解码器融合了多层表示来生成答案,避免了顶层编码层的信息缺失。
试验结果表明,该方法在多个数据集上表现良好。
机器学习精选论文 2
论文地址:
https://www.ijcai.org/proceedings/2019/0504.pdf
摘要:机器学习的应用往往受到有效标记数据数量的限制,而半监督学习可以有效解决这个问题。
本文提出一种简单有效的半监督学习算法——插值一致性训练(Interpolation Consistency Training,ICT)。
ICT 使未标记点的插值预测与这些点的插值预测保持一致。在分类问题中,ICT 将决策边界移动到数据分布的低密度区域。它几乎不使用额外的计算,也不需要训练生成模型,即使没有广泛的超参数调优,它在 CIFAR-10 和 SVHN 基准数据集上应用于标准的神经网络体系结构时,达到了最先进的性能。
最热领域之 Hot 2:计算机视觉
计算机视觉精选论文 1
论文地址:
https://www.ijcai.org/proceedings/2019/0110.pdf
摘要:来自多个尺度的特征可以极大地帮助语义边缘检测任务,然而,普遍的语义边缘检测方法应用固定权重融合策略,其中具有不同语义的图像被迫共享相同的权重,导致所有图像和位置的通用融合权重,而不管它们的不同语义或局部上下文。
这项工作提出了一种新颖的动态特征融合策略,自适应地为不同的输入图像和位置分配不同的融合权重。通过建议的权重学习器来实现的,以针对特定输入以特征地图的每个位置的多级特征推断出适当的融合权重。
以这种方式,可以更好地考虑由特征图和输入图像的不同位置做出的贡献的异质性,从而有助于产生更准确和更清晰的边缘预测。
计算机视觉精选论文 2
论文地址:
https://www.ijcai.org/proceedings/2019/0098.pdf
摘要:单目深度估计是场景理解的一项重要任务。复杂场景中物体和物体的底层结构对于精确恢复且视觉效果好的深度地图至关重要。全局结构反映场景布局,局部结构反映形状细节。近年来发展起来的基于 CNN 的深度估计方法显著提高了深度估计的性能。然而,其中很少考虑复杂场景中的多尺度结构。
本文提出了一种利用多尺度结构进行深度精确预测的结构感知剩余金字塔网络(SARPN),还提出了一种残差金字塔解码器(RPD),它在上层表示全局场景结构来表示布局,在下层表示局部结构来表示形状细节;在每一层,提出预测残差映射的残差细化模块(RRM),以逐步在上层预测的粗糙结构上添加更精细的结构;为了充分利用多尺度图像的特征,提出了一种自适应密集特征融合(ADFF)模块,该模块自适应融合各尺度的有效特征,用于对各尺度结构进行推理。在 NYU-Depth v2 数据集上的实验结果表明,本文提出的方法在定性和定量评估方面都达到了最先进的性能,精度达到 0.749,召回率达到 0.554 ,F1 分数达到 0.630。
最热领域之 Hot 3:自然语言处理(NLP)
NLP 精选论文 1
论文地址:
https://www.ijcai.org/proceedings/2019/0697.pdf
摘要:递归神经网络(RNNs)被广泛应用于自然语言处理(NLP)领域,包括文本分类、问答和机器翻译等方面。通常情况下 RNNs 只能从头到尾审阅,处理长文本能力较差。而文本分类任务中,长文档中的大量单词是不相关的,可以被跳过。针对这种情况,本文作者提出增强型 LSTM:Leap-LSTM。
Leap-LSTM 可以在阅读文本时动态地在单词之间进行跳转。在每个步骤中 Leap-LSTM 使用几个特征编码器从前面的文本、后面的文本和当前的单词中提取信息,然后决定是否跳过当前的单词。在 AGNews、DBPedia、Yelp F. Yelp P. 和 Yahoo 共五个基准数据集上,Leap-LSTM 的预测效果均高于标准 LSTM ,并且 Leap-LSTM 具有更高的读取速度。
NLP 精选论文 2
论文地址:
https://www.ijcai.org/proceedings/2019/0754.pdf
摘要:该论文研究了基于知识图谱嵌入的实体对齐问题。之前的工作主要关注实体的关系结构,有些还进一步合并了其他类型的特性,例如属性,以进行细化。
然而,大量的实体特性仍然没有被平等地放在一起处理,这损害了基于嵌入的实体对齐的准确性和强健性。
本文提出了一个新的框架,它统一了实体的多个视图来学习实体对齐的嵌入。具体来说,该论文使用几种组合策略基于实体名称、关系和属性的视图嵌入实体。
此外,该论文设计了一些跨知识图谱推理方法来增强两个知识图谱之间的对齐,该论文在实际数据集上的实验表明,该框架的性能显著优于目前最先进的基于嵌入的实体对齐方法。所选择的视图、跨知识图谱推理和组合策略都有助于性能的提高。
—— 完 ——
扫描二维码,加入讨论群
获得优质数据集
回复「进群」自动入群
更多精彩内容(点击图片阅读)