手把手教你本地CPU环境部署清华大模型ChatGLM-6B,利用量化模型,本地即可开始智能聊天,达到ChatGPT的80%_chatglm-6b cpu(2)

本文详细介绍了如何在本地CPU环境下安装和部署清华大模型ChatGLM-6B,强调了安装TDM-GCC并勾选OpenMP的重要性。通过C++程序进行权重量化,减小模型内存占用并提高推理速度。通过编译和运行web_demo.py文件完成部署,并对比了ChatGLM与ChatGPT在不同问题上的表现,认为ChatGLM达到ChatGPT约80%的水平。此外,作者分享了自己的学习与工作经历,并提供了一份全面的Python开发学习资源。
摘要由CSDN通过智能技术生成

CPU版本的安装还需要安装好C/C++的编译环境。这里大家可以安装TDM-GCC。

下载地址:https://jmeubank.github.io/tdm-gcc/,大家选择选取TDM-GCC 10.3.0 release下载安装。特别注意:安装的时候在选项gcc选项下方,勾选openmp,这个很重要,踩过坑,直接安装的话后续会报错。

d44f6eb455ef4737b7868b9996bbad31.png

1d3078b2262049028df6ae52a6370e55.png

安装完在cmd中运行”gcc -v”测试是否成功即可。

8e3df00558a64933ba2a3fe0eafef770.png

安装gcc的目的是为了编译c++文件,quantization_kernels.cquantization_kernels_parallel.c

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值