
代码大模型之力扣评估
文章平均质量分 93
AI编程之代码大模型研究 的二级目录
具身机器人与医疗AI曾小健
"具身机器人曾小健、强化学习曾小健2、强化学习曾小健3、我是机器人曾小健具身"都是该号副号。CSDN全站70强博客、总超700w+浏览。AI生成式技术,计算机博士;llama3、Baichuan2、Qwen、GLM-4等等项目贡献人(微chat同GitHub:ArtificialZeng)。这个博客的主题主要是强化学习技术、AI生成式技术、大模型多模态技术、机器人具身智能控制技术、机器/深度学习论文或科研前沿、GNN图神经网络、神经网络,包括人工神经网络和生物神经网络,及其大脑演化,智能和认知的产生,通用人工智能;
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
[代码生成-CoNala]Fine-Tuning Large Language Modelsfor Answering Programming Questionswith Code Snippets
这篇论文研究了预训练大型语言模型(LLM)在回答编程相关问题方面的能力,特别是那些主要通过代码片段回答的问题。原创 2024-10-24 21:47:20 · 674 阅读 · 0 评论 -
在 LeetCode 数据集上对 Gemma 7B 进行微调:分步指南
Follow跟随阅读时间:4分钟2024 年 9 月 10 日1微调是采用预先训练的模型并使其适应特定任务或数据集的过程。在我们的案例中,我们采用具有广泛知识的 Gemma 模型,并教它解决 LeetCode 上的编码问题。可以把它想象成教一个聪明的学生(我们的预先训练的模型)在特定科目(LeetCode 问题)上表现出色。首先,我们需要收集 LeetCode 问题和解决方案。原创 2024-10-22 17:06:02 · 872 阅读 · 0 评论 -
[代码生成-力扣评估]DeepSeek-Coder: When the Large Language Model MeetsProgramming - The Rise of Code Int长文
这篇论文介绍了DeepSeek-Coder系列,这是一系列开源代码模型,其规模从1.3B到33B不等,通过在2万亿个标记上进行训练而开发。这些模型在多个基准测试中不仅达到了开源代码模型的最先进性能,而且还超越了现有的闭源模型,如Codex和GPT-3.5。此外,DeepSeek-Coder模型在允许研究和商业使用的许可下发布。原创 2024-10-24 11:04:23 · 827 阅读 · 0 评论