LLMs之HumanEval:HumanEval的简介、安装、使用方法之详细攻略
目录
1、配置环境:创建一个名为 codex 的虚拟环境,并安装HumanEval工具
LLMs之CodeShell:利用cmd命令基于HumanEval标准(163个生成代码的prompt)测试CodeShell模型得出模型生成代码并保存到txt文件的实战代码
HumanEval的简介
HumanEval(手写评估集),这是用于评估《Evaluating Large Language Models Trained on Code》论文中描述的HumanEval问题解决数据集的评估工具。
GitHub地址: