【本地部署开源模型ChatGLM3-6b】1分钟教会你如何部署大模型+使用

本地部署ChatGLM3-6b

模型下载

# 下载模型文件
git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git
# 下载ChatGLM3官方代码库
git clone https://github.com/THUDM/ChatGLM3.git
# 创建模型文件夹THUDM,并存入下载的模型
cd ChatGLM3
mkdir THUDM
mv ../chatglm3-6b THUDM/
# 使用LLaMA环境
conda activate llama_factory

路径:/home/kby/projects/llm/chatglm3-6b
web_demo演示

# 修改`basic_demo/web_demo_gradio.py`最后一行
demo.launch(server_name="0.0.0.0", server_port=7870, inbrowser=False, share=True)
# 运行
python basic_demo/web_demo_gradio.py
# 开放运行端口
firewall-cmd --zone=public --add-port=7870/tcp --permanent
# 重启防火墙
firewall-cmd --reload

访问链接:自己服务器地址:7870
在这里插入图片描述
后续更新将如何将部署的ChatGLM3-6b接入自己部署的Dify

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值