审稿意见的“so what”如何处理?

“So what” (那又怎样)这句话,作为论文的反馈,在咱们之前的文章中就出现过。

听到导师跟你说“so what”的时候,你可能会觉得沮丧——得,看来又得重新写一遍开题大纲了。

而更让人难过的,是审稿人给你这样的反馈。

如果审稿人说了“so what”,你的稿件怕是很难获得录用,至少也需要做大幅修改。

该怎么办呢?

虽然之前文章里,我曾经给你提到一些可能避免这种负面反馈的方法,但我总觉得不够系统。

上周末,我在南开大学参加「信息行为研究2021年年会」时,听到专家们就这个问题进行了讨论,觉得很有启发。

(这是闭幕式的合影,看看你能一眼找出我不?)

我把专家们的看法和对策梳理和汇总,加上一些自己的心得,通过本文分享给你。

讨论这个问题的契机,发生在「论文写作座谈会」的英文分会场。主持座谈会的,是武汉大学吴丹教授。进行报告和分享的,包括武汉大学沈校亮教授、姜婷婷教授,南京理工大学赵宇翔教授,北京大学刘畅副教授和南开大学樊振佳副教授。

抛出 “so what” 这个话题的,是刘畅老师。她认为论文写作之难,不会随着你写过和发表过便降低。你的每一个新研究,都会面对专业人士的重新审视,并可能问出这句让人紧张的话。

这个问题引发了学者专家们和在场参会者共鸣。几位专家分别从不同角度谈到了“so what”这句评语可能包含的具体含义,以及如何来应对。

当然,其中也少不了我这个「爱问问题的王老师」在提问环节推波助澜。疫情爆发后,线下参会机会显著减少,我愈发珍惜这难得的向专家们当面求教的机会。

我在现场做了笔记,回来之后进行了梳理。通过归纳,我发现审稿人提出来的“so what”,往往对应着以下三种情况。它们其实可以看作是一种递进的结构,包括:

  • 不理解

  • 不认同

  • 不感动

下面我结合专家的讲解和答疑,分别为你做一下说明。

先说「不理解」。

我曾经在《如何有效沟通你的机器学习结果?》一文当中,给你提到过,机器学习训练模型的结果,往往会让领域专家感到不理解。

尽管准确率是一个有效指标,但如果不知道原理,万一这漂亮的结果是机器瞎蒙的,该怎么办?

一个非常典型的例子是医生群体。他们怎么敢用一个说不清原理的模型,来指导自己的实践?

那操作的对象,都是活生生的人,弄错了的话,后果很严重。到时难道能让机器来替自己负责吗?

所以,运用机器学习的研究,就不得不去考虑可解释性的问题。如今「可解释性」是一个热门话题。我曾经

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值