![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
神经代码智能预训练模型
文章平均质量分 92
marasimc
这个作者很懒,什么都没留下…
展开
-
【论文精度】PLBART: Unified Pre-training for Program Understanding and Generation
本论文介绍了 PLBART,这是一种序列到序列模型,能够执行广泛的程序和语言理解和生成任务。PLBART 通过去噪自动编码在广泛的 Java 和 Python 函数集合以及相关的 NL 文本上进行了预训练。对七种编程语言的英语代码摘要、代码生成和代码翻译的实验表明,PLBART 优于或与最先进的模型相媲美。此外,对判别任务(例如程序修复、克隆检测和漏洞代码检测)的实验证明了 PLBART 在程序理解方面的有效性。原创 2023-01-04 22:16:00 · 2250 阅读 · 3 评论 -
面向神经代码智能(NCI,Neural Code Intelligence)的预训练语言模型综述
随着现代软件的复杂性不断升级,软件工程已经成为一项日益艰巨且容易出错的工作。近年来,神经代码智能(NCI)领域已经成为一种有前途的解决方案,利用深度学习技术的力量来解决源代码的分析任务,目标是提高编程效率,并最大限度地减少软件行业中的人为错误。预训练语言模型已经成为NCI研究的主导力量,在广泛的任务中始终如一地提供最先进的结果,包括代码摘要、生成和翻译。本文对NCI领域进行了全面的调研,包括对预训练技术、任务、数据集和模型架构的全面回顾。原创 2022-12-30 00:23:44 · 1032 阅读 · 0 评论 -
【论文精度】CodeBERT——基于自然语言和编程语言的预训练模型
【论文精度】CodeBERT,一种用于编程语言(PL)和自然语言(NL)的双模态预训练模型CodeBERT,CodeBERT学习了通用表示,支持自然语言代码搜索、代码文档生成等下游NL-PL任务。原创 2022-12-28 23:51:13 · 1841 阅读 · 0 评论