卷友们好,我是rumor。
一年一度的ACL它又来了!
上周公布Paper list之后还吃到了瓜,字节被ICLR拒稿的paper居然获得了ACL best paper,不过作者们也出来解释了,主要原因是ICLR的投稿太赶,实验和writing都不够完善。
这件事告诉了我们误以一次成败论英雄,从一个坑跌倒了就从另一个坑爬起来,上帝在关上一扇窗的同时还会打开一扇门,以及工作的外表和内涵同样重要。
不仅内容上的故事重要,一篇paper的题目同样重要。
我就特别佩服敢起名的作者,我们在投稿时只敢起模版样式的名字,而有的作者却收放自如,把paper题目起的像头条文章标题一样吸睛。
今天我们就来一场题目大赏,体会各位朋克大佬们在标题上下的狠功夫。
https://2021.aclweb.org/program/accept/
准备好了吗?我要开始了!
悬念型
这类标题的套路是:你吃饭了没?我要去学习了
如果去掉前一句基本不会对后面的内容有影响,但作者就是要发出一句灵魂拷问,在大家的心上挠一下痒痒。
All That's 'Human' Is Not Gold: Evaluating Human Evaluation of Generated Text
我:我不gold?那我走。。
He is very intelligent, she is very beautiful? On Mitigating Social Biases in Language Modelling and Generation
我:郎才女貌的翻译get
How Good Is NLP? A Sober Look at NLP Tasks through the Lens of Social Impact
我:这个角度还是蛮新颖的,作者建立了一套评估准则,判断NLP的各种应用对社会是否有正向影响
迷惑型
这类标题更加敢起,生怕别人看到题目就知道他们要干什么。
但恰巧是这种好奇心让我真的想去读读摘要。
More Parameters? No Thanks!
我:文章还没挂出来,好家伙回答的这么坚决,不知道又发现了什么
UnNatural Language Inference
我:读完标题???看完摘要明白了作者是想说明语序对于预训练模型没那么重要,和人更倾向读「自然语言」有所不同。
Grounding 'Grounding' in NLP
我:这个真的读不懂了(哭,看了摘要也没能给大家描绘出来
最靓模型名
有一个好记的模型名是很重要的,比如最近我们聊过的CLUE起名内卷现象。想象一下你作为作者,跟朋友吹水的时候,跟老板汇报的时候,跟外界做PR的时候,说「我做了一个盘古模型」,跟「我做了一个荔枝模型」,那震撼程度肯定是不一样的。
效果先按下不表,气势要到位。
GhostBERT: Generate More Features with Cheap Operations for BERT
我:甭管做什么,先加点恐怖氛围
DeepRapper: Neural Rap Generation with Rhyme and Rhythm Modeling
我:一瞅就是老朋克了,我的心中最佳
ABCD: A Graph Framework to Convert Complex Sentences to a Covering Set of Simple Sentences
我:今年ABCD,明年ABCDE,告别v1、v2的套路
BoB: BERT Over BERT for Training Persona-based Dialogue Models from Limited Personalized Data
我:亚马逊的Alexa已经毁掉一个名字了(最近有新闻说国外叫Alexa的小孩会被同学欺负,对着她喊指令),Bob危
Hidden Killer: Invisible Textual Backdoor Attacks with Syntactic Trigger
我:咱也不懂,也不敢问,就是感觉很酷,等一个BERT Killer
玩梗型
这类标题会加一些梗,比如去年有文章玩了一把权游梗。但尴尬的是不是所有人都能get,咱不懂还不敢问。可能只有读完全文才能体会作者题目的用意。
I like fish, especially dolphins: Addressing Contradictions in Dialogue Modeling
我:乍一看有些怪怪的味道,生物没学好的我无权发言
Men Are Elected, Women Are Married: Events Gender Bias on Wikipedia
我:这个应该是作者自创的梗,感受起来不是很容易
Happy Dance, Slow Clap: Using Reaction GIFs to Predict Induced Affect on Twitter
我:happy dance字面上很容易理解,我查下来的理解是「沙雕的舞」,比如:
Who Blames or Endorses Whom? Entity-to-Entity Directed Sentiment Extraction in News Text我:单纯给新闻做情感分析比较容易,但要加上实体间的情感方向就比较难了,作者主要研究了施加到政治实体上的正反向观点
"We will Reduce Taxes" - Identifying Election Pledges with Language Models
我:这个好,以后是不是能自动成文了(狗头
All You Need
最后!NLP的文章怎么能少了all you need!
Three Sentences Are All You Need: Local Path Enhanced Document Relation Extraction
最最后
现在文章越来越多了,如果没有大厂加持或者特别出彩,能让自己的工作被看到是很不容易的事。不得不说这些有意思的标题里确实也有新意的工作,除了基本任务外也有学者在关注性别歧视、社会影响等话题。
对于从业者来说,每次顶会的Paper list都可以刷一刷,说不定哪个工作就能解决现在的困境或者引起新的启发。
最最最后,如有冒犯纯属无心,希望BERT Killer早日出现,我要去刷DeepRapper了~
大家好我是rumor
一个热爱技术,有一点点幽默的妹子
欢迎关注我
带你学习带你肝
一起在人工智能时代旋转跳跃眨巴眼
「简朴的标题包含着简朴的爱」