陈小波
码龄6年
关注
提问 私信
  • 博客:13,588
    13,588
    总访问量
  • 6
    原创
  • 122,201
    排名
  • 30
    粉丝
  • 0
    铁粉
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:山东省
  • 加入CSDN时间: 2018-09-25
博客简介:

weixin_43278082的博客

查看详细资料
  • 原力等级
    当前等级
    3
    当前总分
    197
    当月
    7
个人成就
  • 获得43次点赞
  • 内容获得4次评论
  • 获得79次收藏
  • 代码片获得1,514次分享
创作历程
  • 4篇
    2024年
  • 2篇
    2023年
成就勋章
创作活动更多

超级创作者激励计划

万元现金补贴,高额收益分成,专属VIP内容创作者流量扶持,等你加入!

去参加
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

一个好用的python日志配置函数

答案是新建一个logging_config.py 文件进行logger的管理与配置。下面是一个我自己常用的日志配置文件。logger是一个全局的概念,只要我们配置好对应名称的logger之后,只需要在各个文件中通过。通常一个python项目是由很多的python文件组成的,那我的logger应该如何配置呢?但是日志的使用一直没有搞清楚,写这篇博客进行梳理记录一下。即可获取相应配置好的logger。
原创
发布博客 2024.11.15 ·
188 阅读 ·
5 点赞 ·
0 评论 ·
1 收藏

CUDA 118 安装vllm

下载完上面的两个文件之后可以进行离线安装,安装顺序为先安装torch,然后再安装vllm。安装完torch之后,安装vllm的时候就会检测到torch已经安装并且满足要求,就会略过torch的安装,这也是核心所在。最新版本的vllm基本都需要pytorch版本2.4.0或者2.5.0。会默认使用CUDA12进行编译安装,导致安装失败。但实际操作中也会出现一些问题,下面介绍一下我平时探索出的安装方法。没有具体的包含所有whl的网站,大家可以去。下面给出一个最新的支持cu118的版本。
原创
发布博客 2024.11.11 ·
807 阅读 ·
4 点赞 ·
0 评论 ·
11 收藏

Linux本地复现 open_llm_leaderboard 评测

huggingface官方提供了大模型的评测体系,并在提供了运行评测的方法,可以在本地对自己的模型进行评测,得到各个指标的结果。
原创
发布博客 2024.09.24 ·
451 阅读 ·
3 点赞 ·
0 评论 ·
7 收藏

手动离线安装ollama

在Linux服务上手动安装ollama
原创
发布博客 2024.09.19 ·
2978 阅读 ·
12 点赞 ·
1 评论 ·
33 收藏

使用vllm部署ChatGLM2并提供兼容 OpenAI 的 API Server实现异步访问

运行下面的命令,默认host为0.0.0.0,默认端口为8000,也可以通过--host --port指定。使用chatglm等模型时,请指定 --trust-remote-code参数。调用时可以用下面测试,注意model参数一定要传。SamplingParams 类中的说明。中的sampling_params。按照说明安装就可以了,不赘述。到vllm的GitHub仓库。其他更多的参数请参照。具体参数的含义请参照。
原创
发布博客 2023.12.12 ·
7520 阅读 ·
16 点赞 ·
0 评论 ·
20 收藏

解决使用docker加载模型报错/opt/hpcx/ompi/lib/libmpi.so.40: undefined symbol: opal_hwloc201_hwloc_get_type_dept

个人推测是c++的什么库缺少,导致有未定义的符号出现。
原创
发布博客 2023.11.03 ·
1602 阅读 ·
3 点赞 ·
3 评论 ·
6 收藏