#今日论文推荐#图神经网络发Nature子刊,却被爆比普通算法慢104倍,质疑者:灌水新高度?

#今日论文推荐#图神经网络发Nature子刊,却被爆比普通算法慢104倍,质疑者:灌水新高度?

GNN 是近年来非常火的一个领域。最近,一篇 Nature 子刊论文提出了一种用 GNN 解决组合优化问题的方法,并声称该 GNN 优化器的性能与现有的求解器相当,甚至超过了现有的求解器。不过,这篇论文引来了一些质疑:有人指出,这个 GNN 的性能其实还不如经典的贪心算法,而且速度还比贪心算法慢得多(对于有一百万个变量的问题,贪心算法比 GNN 快 104 倍)。所以质疑者表示,「我们看不出有什么好的理由用这些 GNN 来解决该问题,就像用大锤砸坚果一样。」他们希望这些论文作者能够在宣称方法优越性之前,先和困难问题的基准比较一下。

近年来,神经网络解决了应用和基础科学方面的诸多难题,其中就包括离散组合优化问题,这也是我们理解计算极限的基础。
Martin JA Schuetz 等人 2022 年的研究《Combinatorial optimization with physics-inspired graph neural networks》提出使用受物理启发的无监督图神经网络(GNN)来解决图上的组合优化问题,这种方法似乎很有前途,并发表在具有高影响力的期刊(《自然 · 机器智能》)上。该研究测试了 GNN 在两个标准优化问题上的性能:最大切割和最大独立集(MIS)。这种新提出的 GNN 优化器有一个非常好的特性:它可以扩展到许多更大的实例问题上。

论文题目:Combinatorial optimization with physics-inspired graph neural networks
详细解读:https://www.aminer.cn/research_report/62fa47407cb68b460f03ceb2icon-default.png?t=M666https://www.aminer.cn/research_report/62fa47407cb68b460f03ceb2
AMiner链接:https://www.aminer.cn/?f=cs

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值