![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文笔记
文章平均质量分 94
Hilbob
I will try anything once
展开
-
代码注释生成:《Deep code comment generation with hybrid lexical and syntactical information》论文笔记
原文链接:点此转跳来源:Empirical Software Engineering, 2019一、背景及介绍这篇论文的工作其实是之前他们所提出的一个模型——DeepCom(DeepCom的具体介绍可看我之前的一篇笔记:点此转跳)的升级版,新名字叫混合DeepCom,可以较好地学习代码的词汇和句法信息,从而提高注释生成的质量。主要区别如下:DeepComeHybrid-DeepCom输入仅AST源码+ASTAST遍历策略SBT(包含节点的type和value)S原创 2021-11-10 23:00:55 · 2660 阅读 · 8 评论 -
Attention Is All You Need:论文笔记及pytorch复现【Transformer】
论文链接:https://arxiv.org/abs/1706.03762文章目录一、 背景二、模型架构1.整体框架2.编码器3.解码器4.注意力层Scaled Dot-Product AttentionMulti-Head AttentionApplications of Attention in our Model5.位置前馈网络6.Embeddings 和 Softmax7.位置编码8.整体模型三、模型训练四、德语-英语翻译实战Transformer为许多 NLP 任务提供了一种新的架构,其完全基原创 2021-08-13 21:41:15 · 4565 阅读 · 2 评论 -
代码摘要生成:《Summarizing Source Code with Transferred API Knowledge》论文笔记
论文链接:https://xin-xia.github.io/publication/ijcai18.pdfIJCAI2018源码: https://github.com/xing-hu/TL-CodeSum以往的代码摘要自动生成技术主要有基于信息检索(IR)和基于深度学习(DL)的方法,基于IR方法的弊端是标识符和方法命名很糟糕时无法提取关键字,且如果不存在相似的代码段,就无法输出准确的摘要;基于DL生成注释的弊端是大多方法将代码视为纯文本,会丢失很多有用信息,如约定的标识符命名和应用程序编程接口(原创 2021-07-26 20:34:49 · 1353 阅读 · 0 评论 -
代码注释生成:《Deep code comment generationation》论文笔记
论文连接原创 2021-07-25 16:16:34 · 1928 阅读 · 1 评论 -
代码注释生成:《Towards Automatically Generating Summary Comments for Java Methods》论文笔记
来源: ASE, 2010.这是一篇基于传统方法的代码注释生成文章,针对各种情况采用了一系列启发式规则设计算法,实现注释摘要的自动生成。一、论文背景好的注释可以帮助程序员快速理解方法(函数)的功能,有利于程序理解和软件维护。但很少有软件项目能充分地注释其代码。为解决上述问题,一种方法是在写代码时使用非常具有描述性的标识符名称,这样不用注释也知道程序的功能;另一种方法是鼓励开发人员写注释,如:自动提醒开发人员输入注释、使用自上而向下的设计范例直接从规范生成注释或使用文档优先开发方法等。显然上述方法都比原创 2021-07-20 18:13:18 · 705 阅读 · 1 评论 -
注释位置预测:《CommtPst: Deep learning source code for commenting positions prediction》论文笔记
原文连接:点此位置来源:The Journal of Systems & Software,2020一、背景和Idea1. 背景现有的自动代码注释生成技术是基于注释的代码段已被识别的假设,因此要求用户提前提供代码段。给定源码,能否自动确定在哪里进行注释?为了实现这个目标,作者提出了一种新的方法:CommtPst,可以在源码中自动找到合适的注释位置。2. idea由于注释与代码的语法和语义密切相关,作者先采用neural language model(word embeddings)来捕获原创 2021-07-18 13:10:38 · 465 阅读 · 1 评论