记录驱动云GPU跑chatGLM实践过程

@TOC驱动云部署ChatGLM3-6B模型

记录免费GPU跑chatGLM实践过程,完整datawhale教程如下。

datawhale学习教程

https://datawhaler.feishu.cn/docx/BwjzdQPJRonFh8xeiSOcRUI3n8b
使用ChtaGLM3-6B模型

基本配置

Pytorch 2.0.1
python 3.9

流程

基本配置:
apt-get update && apt-get install unzip

git config --global url.“https://gitclone.com/”.insteadOf https:// pip config set global.index-url https://pypi.virtaicloud.com/repository/pypi/simple
python3 -m pip install --upgrade pip

git clone https://github.com/THUDM/ChatGLM3.git
cd ChatGLM3

->->->
依赖配置在requirement.txt中
->->->

pip install -r requirements.txt
pip install peft

->->->
第一次运行web_demo_gradio.py时候报错:ModuleNotFoundError: No module named ‘peft’
返回ChatGLM3文件夹重新pip install peft
->->->

更改模型python文件:
web_demo_gradio.py
(a)更改模型路径为当前模型所在位置:/gemini/pretrain
(b)修改启动服务器,端口设置
demo.queue().launch(share=False, server_name=“0.0.0.0”,server_port=7000)

添加外部端口映射

运行gradio界面

cd basic_demo
python web_demo_gradio.py

streamlit界面

更改模型python文件:
web_demo_streamlit.py, 更改模型路径为当前模型所在位置:/gemini/pretrain
通过streamlit运行模型:
streamlit run web_demo_streamlit.py --server.port 7000

复制外部访问链接在浏览器中,然后模型在终端中开始加载,加载100%完成后刷新浏览器外部链接,可访问的simple demo.

结束进程

完成测试后记得点击环境信息右边的停止icon!!!

NB

(a)注意选择合适的torch,python 版本
(b)运行预训练模型报错根据报错信息进行相关配置
(c)熟悉驱动云的使用

  • 3
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值