wsl下Linux使用chatglm.cpp记录

17 篇文章 0 订阅
7 篇文章 0 订阅

目录

前言

一些说明

过程

git chatglm.cpp代码

安装相关包

convert量化ggml

cmake构建项目

命令行模型推理

webdemo模型推理

APIServer

性能表现

gpu推理设置


前言

Linux之前用的少,多数还是在Windows下操作,导致对Linux很陌生,而且思维定势的,一有什么操作,还是习惯性在Windows下操作。

在chatglm.cpp操作上也是如此,但是代码可不管你这些,该报错就报错。so可能还是尝试下Linux。而wsl下Linux就是一个比较方便使用Linux环境的方法,wsl很轻量化,避免了你还得再安装虚拟机软件,而且VMWare可能还和docker存在冲突。

wsl下Linux基本操作间如下链接,本文主要讲后续如何在wsl下的Linux环境使用chatglm.cpp

wsl初步使用记录-CSDN博客icon-default.png?t=N7T8https://blog.csdn.net/to_love_/article/details/137559827

一些说明

wsl下的Linux环境还是比较干净,相比云服务器提供了毕竟完善的软件安装,wsl下的Linux系统一些软件都需要自己安装的。

对于这些不一样的地方,我进行颜色标识,方便快速查阅。

过程

git chatglm.cpp代码

git clone --recursive https://github.com/li-plus/chatglm.cpp.git && cd chatglm.cpp
git submodule update --init --recursive

正常是没问题的,不过我这里一直连不上github.com,提示连接被拒绝,而且是秒拒

试着ping结果ip是127.0.0.1,怪不得,应该和我Windows本机使用了Github加速代理有关,本质上是给hosts加了github.com的映射记录。

而且吧,wsl还有个机制,他会自动同步Windows宿主机的hosts记录到Linux下的hosts文件。当然可以关闭自动更新

sudo vim /etc/wsl.conf

增加

[network]
generateHosts = false

小提示:这里使用了vim编辑器,需要保存的话,先按ESC键,然后输入:wq即可保存并退出。

cat /etc/wsl.conf即可查看文件是否已更新

cat /etc/hosts查看Linux下hosts文件,是否还有错误的github.com映射信息

有的话,通过sudo vim /etc/hosts删掉,并增加20.205.243.166 github.com,这样访问githun.com就会去找这个新增的IP记录(注意:ip地址可能会变,则需要更新)

这个时候再次ping github.com,IP信息已经变过来了。

接下来重启Linux环境

wsl --shutdown ubuntu(这里看你具体的wsl系统名)

重新进入Linux环境

wsl -d ubuntu

这个时候就可以正常执行git操作了

安装相关包

python3 -m pip install torch tabulate tqdm transformers accelerate sentencepiece

这个时候会提示pip不存在(python倒是有了),那么再安装下pip

sudo apt install python3-pip
接下来即可正常pip install了,不过这几个包都很大,下载包很慢。那么可以先Ctrl+C停掉安装过程,在如上命令后加 -i https://pypi.tuna.tsinghua.edu.cn/simple,这样通过清华pip镜像源下载就飞快了

convert量化ggml

python3 chatglm_cpp/convert.py -i THUDM/chatglm3-6b -t q4_0 -o chatglm3-ggml.bin

如果使用该命令,如果当前模型文件不存在,会自动从huggingface下载模型。

这个时候问题又来了,由于网络原因,会提示你连不上huggingface,那么就需要通过镜像来下载,即需要设置huggingface模型下载地址的环境变量

export HF_ENDPOINT="https://hf-mirror.com"

查看是否已更新echo $HF_ENDPOINT

继续执行如上命令,这速度嗖嗖的~

很快q4_0量化模型也好了

cmake构建项目

cmake -B build
cmake --build build -j --config Release

其实,这里也需要先安装cmake

sudo apt update
sudo apt install cmake

命令行模型推理

./build/bin/main -m chatglm3-ggml.bin -p 你好

webdemo模型推理

python3 ./examples/web_demo.py -m chatglm3-ggml.bin

这里会提示chatglm_cpp不存在,pip install .即可解决

再次运行提示gradio不存在,pip install gradio即可,这个包可以更新到最前面的pip install命令中

APIServer

首先说下这块比较有坑

MODEL=./chatglm3-ggml.bin uvicorn chatglm_cpp.openai_api:app --host 127.0.0.1 --port 8000

这个时候会报错,不存在chatglm_cpp._C

可以发现如上命令是在chatglm.cpp路径下执行的,然后openai_api.py在chatglm_cpp路径下。看了下代码,在chatglm_cpp下有__init__.py,里边引用了chatglm_cpp._C。另一方面,我们在前面pip install的时候也是chatglm_cpp,可能两个一起有冲突,这样就出问题了

有2个办法吧,一个是改掉这个文件夹名称,比如改为chatglm-cpp

再一个,cd 到chatglm_cpp下执行,这个时候需要改下命令,主要是相对路径变了

MODEL=../chatglm3-ggml.bin uvicorn openai_api:app --host 127.0.0.1 --port 8000

两种方式都可以的,然后通过apipost或代码方式,都可以调用类openai的webapi了

性能表现

我这本身的Windows环境,然后是通过wsl新建了一个Linux环境。

硬件方面,没有GPU,在q4_0量化后,速度也还凑合用。

不过个人觉得,要准生产可用,还是需要GPU的,推理速度还是会差很多的。

gpu推理设置

如果电脑有GPU,那么cmake和pip install .的时候,都需要增加参数

cmake -B build -DGGML_CUBLAS=ON

CMAKE_ARGS="-DGGML_CUBLAS=ON" pip install .

相关参数其实在chatglm.cpp代码下的readme文档都有说明。

  • 15
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
毕业设计,基于SpringBoot+Vue+MySQL开发的体育馆管理系统,源码+数据库+毕业论文+视频演示 现代经济快节奏发展以及不断完善升级的信息化技术,让传统数据信息的管理升级为软件存储,归纳,集中处理数据信息的管理方式。本体育馆管理系统就是在这样的大环境下诞生,其可以帮助管理者在短时间内处理完毕庞大的数据信息,使用这种软件工具可以帮助管理人员提高事务处理效率,达到事半功倍的效果。此体育馆管理系统利用当下成熟完善的SpringBoot框架,使用跨平台的可开发大型商业网站的Java语言,以及最受欢迎的RDBMS应用软件之一的Mysql数据库进行程序开发。实现了用户在线选择试题并完成答题,在线查看考核分数。管理员管理收货地址管理、购物车管理、场地管理、场地订单管理、字典管理、赛事管理、赛事收藏管理、赛事评价管理、赛事订单管理、商品管理、商品收藏管理、商品评价管理、商品订单管理、用户管理、管理员管理等功能。体育馆管理系统的开发根据操作人员需要设计的界面简洁美观,在功能模块布局上跟同类型网站保持一致,程序在实现基本要求功能时,也为数据信息面临的安全问题提供了一些实用的解决方案。可以说该程序在帮助管理者高效率地处理工作事务的同时,也实现了数据信息的整体化,规范化与自动化。 关键词:体育馆管理系统;SpringBoot框架;Mysql;自动化
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值