【论文阅读】Code Search and Code Representation

Code Search and Code Representation

这张表格总结了一些经典的与 Code Search 和 Code Representation 相关的工作,内含代码表示方法,模型框架和下游任务几个部分。

论文代码表示模型下游任务
Deep Code Search(<Method name, API Sequence, Tokens>,Description)Bi-LSTM 和 MLP代码搜索
Code2VecAST pathAttention方法名预测
Code2SeqAST path( 随机选取 k 条,并在训练时迭代)带有 Attention 机制的Encode-Decoder架构方法名预测和代码标题预测

1. Deep Code Search

  • 文章提出了 CODEnn (代码描述嵌入神经网络), 并用该网络实现了代码搜索工具 DeepCS。CODEnn 将 code 和 desc 联合嵌入到高维向量空间中,这样 code 及其对应的 desc 就有相似的向量。使用统一的向量表示,即可根据 Query 在代码库种检索对应的 code。
  • 本文使用的数据表示是:(<Method name, API Sequence, Tokens>,Description)
    DATA
  • CODEnn 和 DeepCS 如下所示:
    CODEnnDeppCS
  • 详细的阅读笔记见:DeepCS阅读笔记

2. code2vec

  • 文章从 Code 的抽象语法树 (AST) 中提取 AST path,通过深度学习模型学习每一条 path 的向量表示以及如何将多条 path 聚合为一个向量以表示整个 Code。本文通过在 14M Method 的数据集上进行训练来评估该方法,结果显示,本文提出的方法获得了超过 75% 的相对改进,是第一个基于大型跨项目语料库成功预测方法名称的方法。
  • 本文使用的数据表示是:< terminal token, path node, terminal token >
  • 例如:the red path: elements Name ↑ FieldAccess ↑Foreach ↓ Block ↓ I f Stmt ↓ Block ↓ Return ↓ BooleanExpr true在这里插入图片描述- 本文使用的模型架构如下所示,特殊结构为:Attention,用以计算模型对每条 AST path 的关注度。
    在这里插入图片描述

3. code2seq

  • 该模型在 AST 中提取一部分路径,进行 LSTM 编码后利用 Attention 生成目标序列。该模型在2个任务、2种编程语言、4个数据集上进行实验,取得了比之前的模型都好的效果。
  • 两个任务是:预测方法名、预测代码片段的自然语言标题。如下所示:
  • 本文使用的数据表示是:AST 中均匀采样的 k 对叶子节点对所组成的,每个叶子结点对所对应的是 AST 中的一条路径。(每次迭代随机选取 k 对)在这里插入图片描述
  • 模型采用增加了 Attention 机制的 Encoder-Decoder 架构,输入是 AST path 的向量表示,输出是预测序列。在这里插入图片描述
  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值