开源项目推荐:code-eval
code-eval 项目地址: https://gitcode.com/gh_mirrors/co/code-eval
项目基础介绍和主要编程语言
code-eval 是一个用于在大型语言模型(LLMs)上运行评估的开源项目,主要使用 Python 编程语言。该项目旨在通过 HumanEval 基准测试来评估代码模型的性能。
项目核心功能
code-eval 的核心功能包括:
- 模型评估:支持多种代码模型(如 WizardCoder、StarCoder、MPT 等)的评估,通过 HumanEval 基准测试来衡量模型的代码生成能力。
- 结果分析:生成评估结果,并提供详细的分析报告,帮助开发者了解模型的性能。
- 可重复性:所有评估结果均可通过克隆仓库并遵循设置步骤进行复现,确保评估的透明性和可信度。
项目最近更新的功能
最近更新的功能包括:
- 新增模型支持:增加了对 Replit-v2-CodeInstruct-3B 和 xgen-7b-8k-base 等新模型的评估支持。
- 优化评估流程:改进了评估代码的处理流程,特别是在模型 tokenizing 和加载方面的边缘情况处理。
- 结果可视化:引入了结果可视化功能,通过图表展示模型的评估结果,使分析更加直观。
通过这些更新,code-eval 不仅扩展了支持的模型范围,还提升了评估的准确性和用户体验。