深度学习之本地部署大模型ChatGLM3-6B【大模型】【报错】

Alt
在这里插入图片描述

🙋大家好!我是毛毛张!
🌈个人首页: 神马都会亿点点的毛毛张

Alt

0.前言

本博客将介绍ChatGLM3-6B大模型在Ubuntu上的本地部署教程

1.模型下载

  • 由于毛毛张的服务器服务无法科学上网,所以模型的相关文件必须现在本地下载好,再上传到服务器上,目前有两个开源的比较好的下载模型文件的地方:Huggineg Face(需要科学上网)和Model Scope(中国网站)

  • 传送门:

  • 然后最近看到网上说大模型的模型文件使用git-lfs来进行下载,可以理解为用来下载大文件的git,需要自己单独安装,但是毛毛张不推荐

    • 原因1:毛毛张测试了一下,还不如用自己的下载器手动下载,因为大模型的权重文件基本上都很大,用这个命令安装也不会告诉你用多久才能下载完
    • 原因2:官网的模型权重文件一般都存在两种格式,一个是适用于pytorch的(下图红色方框2),一个是适用于tensorflow的(下图红色方框1),没必要全部下载,自己需要哪一个就下载哪一个就行了,具体的大模型的模型文件中各个文件的作用请参照毛毛张的这篇博客:大模型中的模型文件的说明

在这里插入图片描述

  • 所以下载过程毛毛张就不过多赘述了

2.配置环境

2.1 下载项目文件

  • ChatGLM3-6B有一个非常详细的本地部署项目文件,里面已经做好了集成,大家只需要本地下载好,然后修改相应的路径调用即可

2.2 配置环境

  • 又到了头疼的一步,不同的人和电脑会出现不同的配置环境报错的问题,只有一步一步见到什么问题解决什么问题了

  • 大家把模型文件下载和官网的微调项目文件下载之后就可以将文件传送到服务器上

  • 并在项目文件中新建一个model文件夹,然后将模型文件移动到改文件夹下,如下图所示
    在这里插入图片描述

  • 接下来就可以开始配置环境了

  • 大模型本地部署的所需要的环境配置已经全部保存在requirements.txt文件当中

    • 配置命令:

      $ conda create -n chatglm python==3.10 # 创建虚拟环境
      $ cd ~/mySata/zzx/ChatGLM3 # 虚拟环境创建完毕之后就可以使用cd命令到大模型项目文件夹下
      $ conda activate chatglm # 激活虚拟环境
      $ pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple # 并在虚拟环境中安装本地推理需要的包
      

3.开始推理

  • 在使用大模型进行推理的时候要确保自己的电脑有足够的显存,CPU调用需要32G内存, GPU调用方式需要13G显存

  • 环境配置成功后,大家可以新建一段test.py代码感受一下chatglm3-6b的推理能力

    from transformers import AutoTokenizer, AutoModel
    tokenizer = AutoTokenizer.from_pretrained("./model/chatglm3-6b", trust_remote_code=True)
    model = AutoModel.from_pretrained("./model/chatglm3-6b", trust_remote_code=True, device='cuda')
    model = model.eval()
    response, history = model.chat(tokenizer, "你好", history=[])
    print(response)
    
    response, history = model.chat(tokenizer, "晚上睡不着应该怎么办", history=history)
    print(response)
    
  • 但是大家这一步运行之后绝对不会那么顺利,毛毛张部署的时候出现了一个报错:

    The above exception was the direct cause of the following exception:
    
    Traceback (most recent call last):
      File "/home/flyvideo/mySata/zzx/ChatGLM3/test.py", line 2, in <module>
        tokenizer = AutoTokenizer.from_pretrained("./model/chatglm3-6b", trust_remote_code=True)
      File "/home/flyvideo/anaconda3/envs/toolbench/lib/python3.10/site-packages/transformers/models/auto/tokenization_auto.py", line 719, in from_pretrained
        tokenizer_class = get_class_from_dynamic_module(class_ref, pretrained_model_name_or_path, **kwargs)
      File "/home/flyvideo/anaconda3/envs/toolbench/lib/python3.10/site-packages/transformers/dynamic_module_utils.py", line 485, in get_class_from_dynamic_module
        final_module = get_cached_module_file(
      File "/home/flyvideo/anaconda3/envs/toolbench/lib/python3.10/site-packages/transformers/dynamic_module_utils.py", line 292, in get_cached_module_file
        resolved_module_file = cached_file(
      File "/home/flyvideo/anaconda3/envs/toolbench/lib/python3.10/site-packages/transformers/utils/hub.py", line 469, in cached_file
        raise EnvironmentError(
    OSError: We couldn't connect to 'https://huggingface.co' to load this file, couldn't find it in the cached files and it looks like THUDM/chatglm3-6b is not the path to a directory containing a file named tokenization_chatglm.py.
    Checkout your internet connection or see how to run the library in offline mode at 'https://huggingface.co/docs/transformers/installation#offline-mode'
    
    • 关键信息是:OSError: We couldn't connect to 'https://huggingface.co' to load this file, couldn't find it in the cached files and it looks like THUDM/chatglm3-6b is not the path to a directory containing a file named tokenization_chatglm.py.

    • 报错原因找不到下载的Tokenizer文件,经过毛毛张排查这个应该是官方文件的一个bug

    • 解决办法:修改tokenizer_config.json文件中的THUDM/chatglm3-6b--tokenization_chatglm.ChatGLMTokenizertokenization_chatglm.ChatGLMTokenizer,修改后如下图所示

      在这里插入图片描述

  • 下面是毛毛张在实际推理过程中的显存截图:

    在这里插入图片描述

4.总结

  • 大模型在本地部署的时候会出现各种各样的报错,除了上面那个报错问题之外,还有一些包的版本问题,或者环境配置问题,各种各样的,所以大家尽量按照官网的说明去配置环境
  • 大家配置完毕之后就可以开始看项目文件中的README.md文件进行微调或者其它的任务了,毛毛张任务那个文件对于ChatGLM的推理和微调的一些代码执行说明的非常详细,再说就是废话了
  • 46
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
为了部署chatglm2-6b模型,您需要按照以下步骤进行操作: 1. 首先,您需要安装一些必要的工具,如Python和Git。确保您已经正确安装了这些工具。 2. 接下来,您需要从HuggingFace下载chatglm2-6b的所有模型文件和配置文件。将这些文件放入一个名为"chatglm2-6b"的文件夹中。建议您手动下载并放入该文件夹。 3. 进入web_demo.py所在的文件夹。您可以使用终端或命令提示符进入该文件夹。 4. 激活chatglm2-6b环境。根据您的操作系统和环境设置,您可能需要运行相应的命令来激活chatglm2-6b环境。例如,对于conda环境,您可以使用"conda activate chatglm2-6b"命令。 5. 最后,执行"python web_demo.py"命令来运行模型。这将启动一个Web演示界面,您可以在其中测试和使用chatglm2-6b模型。 请注意,这只是部署chatglm2-6b模型的基本过程。具体的步骤可能会因您的操作系统、环境设置和个人偏好而有所不同。确保您按照相关文档或指南进行操作,并遇到问题时,可以参考相应的解决办法或寻求帮助。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [ChatGLM2-6B安装详解(Windows/Linux)及遇到的问题解决办法](https://blog.csdn.net/weixin_41529012/article/details/131456645)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [手把手带你linux部署清华大学大模型最新版 chaglm2-6b](https://blog.csdn.net/stay_foolish12/article/details/131437090)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

神马都会亿点点的毛毛张

你的鼓励将是我创作的最大动力!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值