IJCAI 2023放榜!接收率15%:中稿全凭运气?Rebuttal没用?

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【计算机视觉】微信技术交流群

转载自:新智元 | 编辑:LRS

【导读】IJCAI 2023放榜,你中了几篇?

又到顶会放榜时,几家欢喜几家愁。

本次IJCAI 2023共收到4566份提交全文,接收率大约15%

7489a9f358fe28be74281afecfaef690.png

问题链接:https://www.zhihu.com/question/578082970

从知乎上反馈的结果来看,整体审稿质量依然不尽如人意(也可能是被拒稿的怨念...),甚至有的审稿人根本没看rebuttal的内容就给拒了。

19bd495ff896f9783d827be59c4da36c.png

也存在都是分数相同,但结局不同的论文。

2f3ab598661b40166ad74989f92d4a98.png

ef2dd80f9442c27ad3f0d3adc37c229b.png

也有网友贴出meta review的拒绝理由,全是大缺点。

acde6890ef374b04c0a18b62784b1451.png

不过拒稿并不是终点,更重要的是继续出发。

网友Lower_Evening_4056认为,即便是里程碑式的论文也会被多次拒稿,也有一些论文即便不够出色,也能被录用。

当你继续前行,再回过头来看那些合理的审稿意见时,你会发现自己的工作还能再上一个层次。

审稿系统确实存在缺陷,更重要的是不要把reject看作是对你个人或作品价值的评估结果。如果你是一个学生,并且你的导师根据审稿结果而不是工作质量来评价你的话,那你可能就要重新考虑和导师的合作关系了。

d5265ba07051e37a17a3c8a84bbf8268.png

NeurIPS会议此前开展过一致性实验,对于平均分在5到6.5之间的论文,录用结果基本就是随机的,取决于你碰到的审稿人。

比如说有个人的论文结果是9665,如果他没碰到给他9分的审稿人,那结果必然是reject,只不过他刚好碰到了伯乐,并且扭转了审稿结果。

最后,恭喜那些论文录用的科研人,助力推动人工智能研究的发展!

下面是一些在社交媒体上分享已录用的论文。

IJCAI 2023接收论文

端到端抗噪语音识别中多任务学习的梯度修正

在下游语音自动识别系统(ASR)中,语音增强学习策略(SE)被证明能够有效地减少噪声语音信号产生的噪声,该系统采用多任务学习策略对这两个任务进行联合优化。

然而,通过 SE 目标学习的增强语音并不总是产生良好的 ASR 结果。

从优化的角度来看,自适应任务和自适应反应任务的梯度之间有时会存在干扰,这会阻碍多任务学习,最终导致自适应反应性能不理想。

c6cc4dea17d98d8394cefedcf8f27f31.png

论文链接:https://arxiv.org/pdf/2302.11362.pdf

这篇论文提出了一种简单而有效的梯度补偿(GR)方法来解决噪声鲁棒语音识别中任务梯度之间的干扰问题。

具体来说,首先将 SE 任务的梯度投影到一个与 ASR 梯度呈锐角的动态曲面上,以消除它们之间的冲突,协助 ASR 优化。

此外,自适应地调整两个梯度的大小,以防止主导 ASR 任务被 SE 梯度误导。

实验结果表明,该方法较好地解决了梯度干扰问题,在多任务学习基线上,在 RATS 和 CHiME-4数据集上分别实现了9.3% 和11.1% 的相对词错误率(WER)降低。

约束 Tsetlin 机器子句大小构建简明逻辑模式

Tsetlin 机器(TM)是一种基于逻辑的机器学习方法,具有透明和硬件友好的关键优势。

虽然 TM 在越来越多的应用程序中匹配或超越了深度学习的准确性,但是大子句池往往产生具有许多文字(长子句)的子句,使得它们变得不那么容易理解。

此外,较长的子句增加了硬件中子句逻辑的切换活动,具有更高的功耗。

12947ff6fdaf8b283a9bceec904ba92f.png

论文链接:https://arxiv.org/abs/2301.08190

这篇论文介绍了一种新的 TM 学习方法,即子句大小受限的子句学习方法(CSC-TM) ,可以对子句大小设置软约束。

一旦子句包含比约束允许的更多的字面值(literals),就开始排除字面值,因此只会短暂出现较大的子句。

为了评价 CSC-TM,研究人员对表格数据、自然语言文本、图像和棋盘游戏进行了分类、聚类和回归实验。

结果表明,CSC-TM 保持准确性与多达80倍的文字减少,实际上,TREC、 IMDb 和 BBC Sports 的子句越短,准确性就越高,在准确性达到峰值之后,当子句大小接近单个文字时,就会缓慢地下降。

文章最后分析了 CSC-TM 的功耗,得到了新的收敛性质。

#DNN-Verification问题:计算深度神经网络的不安全输入

深度神经网络越来越多地用于需要高安全级别的关键任务,比如说自动驾驶,虽然可以采用最先进的验证器来检查DNN是否是不安全的:

给定一些属性(即,是否存在至少一个不安全的输入配置)后,模型的yes/no输出对于其它目的(例如shielding、模型选择或训练改进)而言信息量不足。

9b142074ba525ba18e7b25dd2d6b0328.png

论文链接:https://arxiv.org/abs/2301.07068

这篇论文介绍了#DNN-Verification问题,该问题涉及计算导致违反特定安全属性的DNN输入配置的数量,研究人员分析了这个问题的复杂性,并提出了一种新的方法,返回确切的违规计数。

由于问题是P-完备性的,文中提出了一个随机的近似方法,提供了一个可证明的概率界的正确计数,同时显着降低计算要求。

文中还提出了一组安全关键的基准,证明该近似方法的有效性和评估的约束的紧密性的实验结果。

参考资料:

https://ijcai-23.org/

点击进入—>【计算机视觉】微信技术交流群

最新CVPR 2023论文和代码下载

 
 

后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF

目标检测和Transformer交流群成立
扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-目标检测或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。
一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer333,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!

▲扫码进星球
▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看efa4d62c4ca81e757bc814e34edc4405.gif

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值