自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 Linux本地复现 open_llm_leaderboard 评测

huggingface官方提供了大模型的评测体系,并在提供了运行评测的方法,可以在本地对自己的模型进行评测,得到各个指标的结果。

2024-09-24 14:16:19 358

原创 手动离线安装ollama

在Linux服务上手动安装ollama

2024-09-19 13:43:41 602

原创 使用vllm部署ChatGLM2并提供兼容 OpenAI 的 API Server实现异步访问

运行下面的命令,默认host为0.0.0.0,默认端口为8000,也可以通过--host --port指定。使用chatglm等模型时,请指定 --trust-remote-code参数。调用时可以用下面测试,注意model参数一定要传。SamplingParams 类中的说明。中的sampling_params。按照说明安装就可以了,不赘述。到vllm的GitHub仓库。其他更多的参数请参照。具体参数的含义请参照。

2023-12-12 11:14:45 6308

原创 解决使用docker加载模型报错/opt/hpcx/ompi/lib/libmpi.so.40: undefined symbol: opal_hwloc201_hwloc_get_type_dept

个人推测是c++的什么库缺少,导致有未定义的符号出现。

2023-11-03 11:19:36 1315 3

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除