[paper note]代码生成评估模型-CodeBLEU原理分析

在这里插入图片描述

论文信息

论文标题:CodeBLEU: a Method for Automatic Evaluation of Code Synthesis

发表时间:2020年9月

论文原文:CodeBLEU: a Method for Automatic Evaluation of Code Synthesis

论文内容

摘要

评价指标对一个领域的发展起着至关重要的作用,因为它定义了区分模型好坏的标准。在代码综合领域,常用的评估指标是 BLEU 或 精确匹配,但它们是不太适合评估代码能力,因为BLEU最初是为了评估自然语言而设计的,忽略了代码的重要语法和语义;而精确匹配因太过严格,导致低估具有相同的语义逻辑的不同输出。为了解决这个问题,我们引入了一个新的自动评估指标,称为CodeBLEU。它吸收了BLEU在n-gram匹配中的优势,并进一步通过抽象语法树(AST)引入代码语法,通过数据流引入代码语义。我们通过评估CodeBLEU与程序员在三个代码合成任务(即文本生成码、代码翻译和代码优化)上分配的质量分数之间的相关系数来进行实验。实验果表明,与BLEU和精确匹配相比,我们提出的Code-BLEU可以与程序员分配的分数实现更好的相关性。

主要思路

论文主要的思想是,在BLEU算法的基础上,增加了其余的三个指标用于解决BLEU的三个问题。

  1. BLEU对每个单词都是一样的,而代码其实是有保留字和声明名称的。对于语言的保留字和声明名称(如变量名、类名等)、常量数值(字符串、数值等),其重要性远远大于普通的名称声明。在这篇论文中,引入了带权重的 BLEU 算法,将保留字的权重设置为普通词的4倍,以应对该问题。
  2. BLEU将代码作为一串普通文本进行对比,忽略了代码语法。实际上,代码作为一个人为创建的语言,具备很强的逻辑性。该论文引入了AST语法树,通过对比语法树来引入对于代码语法的评估。
  3. BLEU将代码以自然语言的形式理解,忽略了代码语义。代码作为逻辑性很强的语言,一个语义的差别,可能带来的结果却是天差地别。该模型引入了数据流,以图的形式比较数据流的相似性,将代码语义引入评估模型中。

根据上述描述,CodeBLEU的最终得分公式如下:

C o d e B L E U = α ⋅ B L E U + β ⋅ B L E U w e i g h t + γ ⋅ M a t c h a s t + δ ⋅ M a t c h d f CodeBLEU =α · BLEU + β · BLEU_{weight} + γ · Match_{ast} + δ · Match_{df} CodeBLEU=αBLEU+βBLEUweight+γMatchast+δMatchdf

典型示例

论文中给了一正一反两个示例,来证明CodeBLEU比BLEU更加准确。

  1. 反例

在这里插入图片描述

这个例子中,参考代码是将一个double类型的数据转化为int类型。而候选代码则将数据转化成了float类型。使用BLEU算法,计算出的相似度为75.43。而考虑了语法和语义的CodeBLEU则对于返回类型的差异做了惩罚扣分,最终结果为69.73。

  1. 正例

在这里插入图片描述

参考代码的逻辑和反例相同,而候选代码中,只是变量名称换了,这丝毫不影响代码的整体逻辑。如果是人工评测,我们会打100分,因为这两段代码的功能是一样的。然而BLEU算法的打分只有68.14分,而考虑语法和语义的CodeBLEU算法的得分为83.97,一定程度上修正了误判。

实现细节

加权N‑Gram匹配

原始 BLEU 比较候选和参考之间的 n 元语法,并计算匹配的 n 元语法的比率。与自然语言的词汇量庞大、词序自由相比,编程语言是人工设计的,只有“int”、“public”等少数几个关键字。将传统的BLEU直接应用到代码综合中会忽略关键字的重要性。因此,我们引入加权n‑gram匹配,为不同的n‑gram分配不同的权重,使得关键词具有更高的权重。

计算公式如下:

p n = ∑ C ∈ C a n d i d a t e s ∑ i = 1 l µ n i ⋅ C o u n t c l i p ( C ( i , i + n ) ) ∑ C ′ ∈ C a n d i d a t e s ∑ i = 1 l µ n i ⋅ C o u n t ( C ′ ( i , i + n ) p_n =\frac{\sum_{C∈Candidates}^{}\sum_{i=1}^{l}µ^i_n·Count_{clip}(C(i, i + n))}{\sum_{C^{'}∈Candidates}^{}\sum_{i=1}^{l}µ^i_n·Count(C^{'}(i, i + n)} pn=CCandidatesi=1lµniCount(C(i,i+n)CCandidatesi=1lµniCountclip(C(i,i+n))

其中n表示n‑gram的长度,C(i, i + n)是从位置i到位置i + n的n‑gram, C o u n t c l i p ( C ( i , i + n ) ) Count_{clip}(C(i, i + n)) Countclip(C(i,i+n))是最大值候选代码和一组参考代码中同时出现的 n 元语法的数量。 µ 表示不同关键字或 n‑gram 的权重。在本文中,关键词的μ是其他标记权重的5倍。同样的,参考BLEU,也使用了惩罚因子,规避算法对短结果的偏向。

B P = { 1  if  c > r e 1 − r c  if  c ≤ r BP=\begin{cases}1 & \text{ if } c>r \\ e^{1-\frac{r}{c} } & \text{ if } c\le r \end{cases} BP={1e1cr if c>r if cr

其中c是候选代码的长度,r是有效参考语料库的长度。最终加权 n-Gram 语法匹配得分计算如下:

B L E U w e i g h t = B P ⋅ e x p ( ∑ n = 1 N ω n log ⁡ P n ) BLEU_{weight} = BP · exp(\sum_{n=1}^{N} \omega _n \log_{P_n}) BLEUweight=BPexp(n=1NωnlogPn)

在这篇的论文中,关键字仅在 unigram(单个词语)中考虑,因此 N 和 ω n \omega_n ωn 等于 1。请注意,需要为每种编程语言预定义一个关键字列表。

语法AST匹配

除了序列级匹配之外,论文还通过匹配语法树结构来考虑CodeBLEU中的语法信息。与自然语言不同,编程语言具有自然的树结构,例如抽象语法树(AST)。 AST 是编程语言抽象语法结构的树表示。我们可以获得tree‑sitter解析结果中的所有子树,然后通过比较候选子树和参考子树来计算准确性。在 AST 中,每个节点表示源代码中出现的一个构造。AST 的叶子代表函数的名称和所有变量。然而,我们只是想使用代码的语法结构,命名并不重要,因此我们省略了原始 AST 树中的所有叶子节点。

计算句法 AST 匹配算法公式如下:

M a t c h a s t = C o u n t c l i p ( T c a n d ) / C o u n t ( T r e f ) Match_{ast} = Count_{clip}(T_{cand})/Count(T_{ref}) Matchast=Countclip(Tcand)/Count(Tref)

其中 C o u n t ( T r e f ) Count(T_{ref}) Count(Tref)是参考子树的总数, C o u n t c l i p ( T c a n d ) Count_{clip}(T_{cand}) Countclip(Tcand)是与参考子树匹配的候选子树的数量。这个分数可以从语法的角度评估代码质量,因为诸如 token 缺失、数据类型错误之类的语法错误可以通过它们 AST 之间的差异来捕获。

语义数据流匹配

在编程语言中,源代码的语义与变量之间的依赖关系高度相关。以下图为例,功能是计算一个数组的平均值。尽管候选项和引用之间的差异很微妙(返回 y → 返回 x),但它们的语义完全不同。然而,加权 n 元语法匹配和句法 AST 匹配仍然给出了很高的分数,因为这两个部分代码具有相同的 AST,并且它们的 token 高度重叠。因此,论文还考虑了CodeBLEU中的语义信息。使用数据流将源代码表示为图,其中节点表示变量,边表示每个变量值的来源。与 AST 不同,下图中两个代码的数据流不同,因为它们的返回值分别来自 x 和 y。这样的语义图可以用来测量候选和参考之间的语义匹配。

在这里插入图片描述

基于上述,计算语义数据流匹配分数分为三个步骤。

步骤1: 获取候选和参考的数据流图。基于 AST,我们首先利用叶子来识别变量序列,表示为 V = {v0, v1, …, vm}。

然后我们将每个变量作为图的一个节点,一条有向边 = vi , vj从vi到vj表示第 j 个变量的值来自第 i 个变量。图 G© = (V ; E) 用于表示代码 C 的变量之间的关系,如图 1 中的红色箭头所示。

步骤2: 标准化数据流项。为了简单和统一,我们忽略变量位置并标准化它们的名称。我们收集数据流项中的所有变量并将它们重命名为 var_i,其中 i 是所有数据流项中出现的变量的顺序。

步骤3: 计算语义数据流匹配分数为:

M a t c h d f = C o u n t c l i p ( D F c a n d ) / C o u n t ( D F r e f ) Match_{df} = Count_{clip}(DF_{cand})/Count(DF_{ref}) Matchdf=Countclip(DFcand)/Count(DFref)

其中 C o u n t ( D F r e f ) Count(DF_{ref}) Count(DFref) 是参考数据流的总数, C o u n t c l i p ( D F c a n d ) Count_{clip}(DF_{cand}) Countclip(DFcand) 是和参考数据流匹配的候选数据流数量。

实验过程

对三个代码合成任务进行了实验,即文本到代码(Java)、代码翻译(从Java到C#)和代码细化(Java)。这些任务的先前工作使用 BLEU 或完全匹配进行评估。在本文中,将以提出的CodeBLEU作为评估指标,看看CodeBLEU是否更合理。对于每个任务,计算 Pearson 相关系数,以检查 CodeBLEU 给出的分数与程序员分配的分数(人类评估分数)之间的相关性。详细的实验过程,可以查看论文原文,这里不赘述。

结论

主要结果主要结果如下表所示。

在这里插入图片描述

在此表中,计算了 BLEU 分数、精确匹配分数、CodeBLEU分数,人类评分四个分数。注意前三项指标范围从0到100,最后一个范围是从 1(非常差)到 5(非常好)。

超参设置

论文尝试了不同情况下的超参数,并记录最终的CodeBLEU得分;再计算该得分与人类评分结果的相关性,最终确定了表现最优的超参数设定。

在这里插入图片描述

参数设置如下:

在这里插入图片描述

由上图和上表可知,最优的超参设置为:

α , β , γ , δ = 0.1 , 0.1 , 0.4 , 0.4 α, β, γ, δ = 0.1, 0.1, 0.4, 0.4 α,β,γ,δ=0.1,0.1,0.4,0.4

  • 13
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
纸质金属透镜是指一种创新的透镜材料,由纸质基底与金属纳米结构相结合制成,用于可见光波长范围内的光学聚焦。纸质金属透镜利用金属纳米结构对光的折射、反射和透射来改变光的传播方向和聚焦性能。 首先,纸质金属透镜在可见光波长下能够实现衍射极限的聚焦,这意味着它能够将入射光线集中并将其聚焦到极小的斑点上。传统的光学透镜在可见光范围内的聚焦受到衍射极限的限制,而纸质金属透镜通过精确控制金属纳米结构的形状和排列,以及纸质基底的折射率,可以实现超越衍射极限的聚焦效果。 其次,在纸质金属透镜中,纸质基底的特殊性质使得透镜非常薄而轻便,适合应用于柔性和便携式光学器件。与传统玻璃或塑料透镜相比,纸质金属透镜的制备成本更低,且具有可替代性和可重复性。 纸质金属透镜还可以用于次波长级别的光学器件,这意味着它可以在纳米尺度上聚焦光束。通过精确控制金属纳米结构的尺寸和间距,纸质金属透镜可以实现对入射光线的调控,如调整光束的偏振态、扭曲成分和焦距等。这种灵活性使其在纳米光子学、超高分辨率成像等领域具有广泛的应用前景。 总之,纸质金属透镜在可见光范围内能够实现衍射极限的聚焦,具有超越传统透镜的性能;同时,它具有薄、轻、成本低、可替代和可重复制备等优势。纸质金属透镜的发展为光学器件的设计与制造提供了新的思路和可能性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值