ChatGLM3离线运行

ChatGLM3离线运行

获取开源代码

开源的ChatGLM3的运行程序中包括多个实用的工具,我们开源通过直接从github下载或者直接用git指令下载。
在本测试中,我们采用的下载zip文件然后解压的方式处理。github地址如下:

THUDM/ChatGLM3

模型下载和配置

模型的下载和配置请见之前的文章:
ChatGLM3-6B大语言模型离线执行
在本次的项目中,模型文件的位置设置为:

C:\VM\Chatbot\ChatGLM3-main\THUDM\chatglm3-6b

文件的修改

1. 文件目录的变更

基于测试,我们首先需要将文件放置到和模型的前两级相同的位置,模型才能正确运行,在本测试中,需要执行的文件为web_demo_streamlit.py.
因此首先需要将文件从

C:\VM\Chatbot\ChatGLM3-main\basic_demo

移动到

C:\VM\Chatbot\ChatGLM3-main
2. 模型的目标位置变更

由于项目为离线部署,因此需要调用的模型为本地模型,需要修改配置文件,将模型文件修改为本地。
需要修改的内容如下:
调用本地模型

3. 程序执行

在运行栏,通过如下指令即可执行相应的python程序。

streamlit run web_demo_streamlit_01.py

正常情况下,相应输出如下图所示,否则需要修正问题。
正确执行输出异常处理:
在使用sreamlit指令时,可能出现指令无法识别的情况,测试需要修改电脑的path,将相应文件存放的script地址放到path中
path修改

参考文件:
ChatGLM3参考文件
ChatGLM3-6B大语言模型离线执行

  • 4
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值