lm-evaluation-harness 项目使用教程

lm-evaluation-harness 项目使用教程

lm-evaluation-harnessA framework for few-shot evaluation of autoregressive language models.项目地址:https://gitcode.com/gh_mirrors/lm/lm-evaluation-harness

1. 项目的目录结构及介绍

lm-evaluation-harness 项目的目录结构如下:

lm-evaluation-harness/
├── README.md
├── setup.py
├── lm_eval/
│   ├── __init__.py
│   ├── tasks/
│   │   ├── __init__.py
│   │   ├── arc_challenge.py
│   │   ├── hellaswag.py
│   │   ├── mmlu.py
│   │   └── ...
│   ├── models/
│   │   ├── __init__.py
│   │   ├── hf_model.py
│   │   ├── vllm_model.py
│   │   └── ...
│   ├── evaluator.py
│   ├── utils.py
│   └── ...
├── tests/
│   ├── __init__.py
│   ├── test_evaluator.py
│   └── ...
└── ...

目录结构介绍

  • README.md: 项目说明文档。
  • setup.py: 项目安装脚本。
  • lm_eval/: 核心代码目录。
    • tasks/: 包含各种评估任务的实现。
    • models/: 包含各种模型的实现。
    • evaluator.py: 评估器的主要逻辑。
    • utils.py: 工具函数。
  • tests/: 测试代码目录。

2. 项目的启动文件介绍

项目的启动文件主要是 lm_eval/evaluator.py,该文件包含了评估器的主要逻辑。启动评估任务时,通常会调用该文件中的函数。

启动文件介绍

  • evaluator.py: 包含评估任务的启动逻辑,如加载模型、执行评估任务等。

3. 项目的配置文件介绍

项目的配置文件通常在运行时通过命令行参数传递,或者在代码中直接设置。以下是一些常用的配置参数:

配置文件介绍

  • model: 选择要评估的模型类型,如 hf, gguf, vllm, openai 等。
  • model_args: 模型的位置与参数,可以使用 HuggingFace 的仓库名称或本地的路径。
  • tasks: 决定哪些任务要评估,可以接受一个以上的任务列表。
  • device: 使用的 GPU,如果需要多个 GPU,可以使用 accelerate launchertensor_parallel_size 参数。
  • batch_size: 自动选择 batch 大小。
  • output_path: 结果存储位置。
  • use_cache: 缓存之前运行的结果,避免重复执行。
  • log_samples: 记录评估过程,包括所有的 Prompt 和答案。

通过以上配置,可以灵活地进行模型评估任务。

lm-evaluation-harnessA framework for few-shot evaluation of autoregressive language models.项目地址:https://gitcode.com/gh_mirrors/lm/lm-evaluation-harness

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

秋泉律Samson

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值