chatglm.cpp是使用cpu驱动,在加上量化以后降低参数精度,可以让cpu配置不够好的情况下也能使用ChatGLM3-6B。由于本人对于C++和Python并不熟悉,可能在文章会有一些错误理解,请读者谅解。
ChatCLM3的GitHub官方链接:
GitHub - THUDM/ChatGLM3: ChatGLM3 series: Open Bilingual Chat LLMs | 开源双语对话语言模型
chatglm.cpp量化模型的GitHub官方链接:
GitHub - li-plus/chatglm.cpp:ChatGLM-6B & ChatGLM2-6B & ChatGLM3 & GLM4 的C++实现
首先git环境和python环境肯定是要提前准备好的,然后进入到Windows的命令行模式,cd到我们要保存该项目的目录下,后文所指的chatglm安装所在的绝对路径皆是该路径。
1.将ChatGLM.cpp存储库克隆到本地计算机中:
git clone --recursive https://github.com/li-plus/chatglm.cpp.git &am