手把手教你如何部署ChatGLM-6B大模型

最近咸鱼时间学习了大模型的知识,正好不上班,趁着这时间写一下自己的实践供大家参考 

云服务器环境搭建

目前阿里云服务器有免费的使用机会,大家可以申请用来学习和实验,账号的话:支付宝啥的都可以直接注册。

具体操作步骤:进入阿里云服务器网站,找到“产品”,然后找到“机器学习平台PAI”,点击后就会下面的图,这边点击免费试用即可。

 服务器的环境我是根据b站up主学习的,这里我们选择第一个交互式建模,点击立即试用

然后我们点击交互式建模,点击“创建实例”,

 实例的地域、工作空间、名称这些任意,重点是GPU和环境,GPU可以选择V100的卡,应该是够用了,然后镜像选择,都在下面图列出来了,按照这个走就行。数据集和网络配置先不要选择!!!

模型的下载

这边需要下载两个东西,分别是chatGLM-6B的github地址和模型地址,分别列出来了:

chatGLM-6B的Github地址:https://github.com/THUDM/ChatGLM-6B

chatGLM-6B的模型地址:https://huggingface.co/THUDM/chatglm-6b

模型下载我这边用的两个方法:一个是下载到本地,然后上传到服务器上;另一个是直接git clone的方式。

下载到本地:

大家都懂得,直接在github的界面,下载压缩包就行,然后放到服务器中解压就会有chatGLM-6B文件夹。但是模型的话,需要把相关文件都要下载下来,部分文件比较小,下载也比较慢!如图所示,把所有文件下载然后上传到服务器就行

Git:

在这之前,有些操作需要执行,我列出来了

更新git-lfs:

apt-get update

apt-get install git-lfs

初始化git:

git init 

git lfs install

然后我们就可以下载chatGLM-6B源码了

git clone https://github.com/THUDM/ChatGLM-6B.git

进入到chatGLM-6B文件夹,可以看到有一个requirements文件夹,所以我们需要搭建相关的环境

 直接pip install -r requirements就行

创建mymodel文件夹,这里是存放模型和相关文件的,后面demo测试的模型路径是要指向这个文件夹的

mkdir model

cd model

然后进入文件夹后,就是下载模型文件了,我用git的方法一直都不行,容易出问题,推荐大家自己本地下好,然后传到这个文件夹里面去就可以

模型部署测试

当我们把相关文件都传到服务器,找到chatGLM-6B文件夹中web_demo.py文件,直接点击该文件,把路径改为服务器中你存储的模型的路径,要改的路径就是下图中我用蓝色框框圈出来的,我这里是model/chatglm-6b,记得保存哦!

然后服务器终端就可以运行模型啦,运行命令:python web_demo.py后,命令行中会出现一个网址,直接点击就会跳转到chatGLM-6B的界面了,然后就可以对话了,话不多说,看图!

 到这里,就完成了这个模型的部署运行了。我是个新人,这也是自己第一个的blog,如果有什么写的不好的地方,大家多多见谅哈,有问题欢迎随时和我交流!!!

  • 7
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 8
    评论
当然,我可以帮助你部署ChatGPT模型。以下是一步一步的指南: 步骤1:准备环境 首先,你需要一个Python环境来运行模型。确保你已经安装了Python 3.6或更高版本。 步骤2:安装依赖项 在命令行中打开一个新的终端窗口,并使用以下命令安装所需的依赖项: ``` pip install transformers flask ``` 步骤3:下载并解压模型 从CSDN下载chatglm2-6b模型的权重文件,并将其解压缩到你选择的目录中。 步骤4:创建Flask应用程序 在你选择的目录中创建一个名为app.py的Python文件,并使用以下代码创建一个基本的Flask应用程序: ```python from flask import Flask, request, jsonify from transformers import GPT2LMHeadModel, GPT2Tokenizer app = Flask(__name__) model_path = "path/to/your/model" tokenizer = GPT2Tokenizer.from_pretrained(model_path) model = GPT2LMHeadModel.from_pretrained(model_path) @app.route("/chat", methods=["POST"]) def chat(): data = request.json input_text = data["input_text"] input_ids = tokenizer.encode(input_text, return_tensors="pt") output = model.generate(input_ids, max_length=100) response = tokenizer.decode(output[0], skip_special_tokens=True) return jsonify({"response": response}) if __name__ == "__main__": app.run(host="0.0.0.0", port=5000) ``` 步骤5:运行应用程序 在终端窗口中,导航到包含app.py文件的目录,并运行以下命令来启动应用程序: ``` python app.py ``` 步骤6:测试应用程序 使用HTTP客户端(如Postman或cURL)向http://localhost:5000/chat发送POST请求,并在请求正文中包含以下JSON数据: ```json { "input_text": "你想说的话" } ``` 你将收到一个包含ChatGPT模型生成的响应的JSON响应。 这就是部署chatglm2-6b模型的基本步骤。你可以根据需要进行修改和扩展。希望这可以帮助到你!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

羊驼锋

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值