论文写作——5 introduction与语言逻辑(以韬韬同学ASMI27版为例)

今天的小组会,老板帮我们看了韬韬同学ASMI27版论文的introduction,根据今天的讨论学习,总结下今天的收获。

1 introduction 的节奏安排

详见:论文写作——1 论文的框架与introduction段落安排(https://blog.csdn.net/ypandam/article/details/120104759)
本论文的节奏安排如下:
第一段:MIL 一般性介绍
第二段:MIL 三种常用技术
第三段:MIL 的神经网络方法
第四段:基于注意力机制的方法
第五段:我们的方法
第六段:我们方法的细节(包括贡献)
第七段:我们方法的效果
整体上没有问题

2 先通篇检查:

1) 基本词语:haven’t don’t cann’t and solve novel only等的用法。
   详见:https://blog.csdn.net/minfanphd/article/details/121077129
2) 长句,超过20个单词的多不多
3)有没有找顶刊论文的句子来仿着写
4) 所有句子有没有基本错误,有没有到google翻译去倒腾
5) 基本的大小写关系做到没有

3 常见的要大写的地方

   a)一句话的第一个单词首字母。如:He is my uncle.
   b) 称呼、职务或头衔的首字母。如:Prof. Zhong
   c)人名中的姓和名的首字母。如:Han Meimei
   d)大部分的缩写。如:ISO=International Standardization Organization
   e)人称代词 I 永远是大写。
   f)专有名词(如国家、地名、朝代和党派等)的(实词)首字母应大写。如:ChengDu 

3 第一段的问题

在这里插入图片描述
这种显得很绕: 概念介绍 -> 应用领域 -> 概念介绍

4 第二段的问题

在这里插入图片描述

  1. Bag-based, Embedding-based and Instance-based
    这里为什么要首字母大小,既不是一句的开头,又不是什么专有名字。
    2) The instance-based paradigm [11], [12] predicts bag labels based on instance-level classifiers and the connection between the bag and corresponding instances.
    classifiers 与 connection语义上不能并列
    -》The instance-based paradigm [11], [12] predicts bag labels based on the connection between the bag and its instances.

5 第三段的问题

在这里插入图片描述
1) With the powerful feature extraction ability of neural networks, many algorithms tend to obtain better bag classification result by associating MIL with them.
问题:
  a)多示例学习是一种任务、问题,而神经网络是一种方法,它们之间有应用的关系,没有结合的关系
  b)them 使得句式复杂,还很绕。一般而言,them 如果指代上文的名词,可以简化,但在本句里效果不好。
-》
The MIL algorithms based on neural network use its powerful feature extraction capabilities to obtain better bag classification results.

2) Many works -> Some/most of them
这样可以使这句话链接本段的第一句话。句子之间更有连贯性

3)employ classic instance-level network architecture and aggregate the response
弄清楚这个and的作用,尽量绕开。
->
employ classic instance-level network architecture to aggregate the response.

6 第四段的问题

在这里插入图片描述
1) Subsequently, the attention mechanism is considered as a novel network architecture which is suitable for handling bag structure and interpreting instance significance.
 &#8195本句是针对上一段的 however,应该与之对应。
问题在于,这里再说别人的工作,说novel 本身没有意义。这里的本意是想强调: suitable
-》
Subsequently, the attention mechanism \cite{} is introduced to handle bag structure through instance significance interpretation.

2)每一种方案要有针对性:
The attention mechanism effectively …
本句话就应该说引入attention mechanisms的好处,照应前面说的给正包中的负实例分配正标签的问题,在此数目怎么解决的,所以关键字positive bag 和 its negative intances是重点
->
’The attention mechanism effectively decrease the influence of negative instances in positive bags.
negative instance, positive bag, weights

3)As a result, the classification performance will be further influenced.
在这里插入图片描述
 &#8195a) further? 比以前的方案还差?
 &#8195 b)前面已经说明大权重分配给负实例的坏处了,而且机器学期都是分类的问题,这里没必要再说分类怎么样了

7 第五段问题

在这里插入图片描述

With the fused vectors, we introduce a new self-attention block and two fully connected networks to achieve desirable bag classification accuracy. …
-> 又见废话 to achieve desirable bag classification accuracy
-> 不够具体,本来是想有一个总体描述,然而并没有营养
后面部分写不出高水平的东西了,其实就可以不要了,直接接上pic1 …进行具体描述了

8 第六段问题

在这里插入图片描述

  1. The major contributions of this paper 应该提行
  2. This enables the proposed framework to further utilize the self-attention mechanism to achieve desirable bag classification accuracy.
    问题: 这句话绕,不具体
    -》
    This can utilize instance-level information, bag-level information, and feature extraction potential at the same time.
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值