glm4-9b-chat在使用llama-factory加载和微调时出现报错ValueError: too many values to unpack (expected 2)

[INFO|modeling_utils.py:4288] 2024-09-03 20:26:29,014 >> All the weights of ChatGLMForConditionalGeneration were initialized from the model checkpoint at /mnt/workspace/models/glm-4-9b-chat.
If your task is similar to the task the model of the checkpoint was trained on, you can already use ChatGLMForConditionalGeneration for predictions without further training.
[INFO|configuration_utils.py:915] 2024-09-03 20:26:29,018 >> loading configuration file /mnt/workspace/models/glm-4-9b-chat/generation_config.json
[INFO|configuration_utils.py:962] 2024-09-03 20:26:29,018 >> Generate config GenerationConfig {
  "do_sample": true,
  "eos_token_id": [
    151329,
    151336,
    151338
  ],
  "max_length": 128000,
  "pad_token_id": 151329,
  "temperature": 0.8,
  "top_p": 0.8
}

09/03/2024 20:26:29 - INFO - llamafactory.model.model_utils.attention - Using torch SDPA for faster training and inference.
09/03/2024 20:26:29 - INFO - llamafactory.model.loader - all params: 9,399,951,360
09/03/2024 20:26:29 - WARNING - llamafactory.chat.hf_engine - There is no current event loop, creating a new one.
Exception in thread Thread-8 (generate):
Traceback (most recent call last):
  File "/usr/local/lib/python3.10/threading.py", line 1016, in _bootstrap_inner
    self.run()
  File "/usr/local/lib/python3.10/threading.py", line 953, in run
    self._target(*self._args, **self._kwargs)
  File "/mnt/workspace/projects/LLaMA-Factory-0.8.3/lf_8.3_env/lib/python3.10/site-packages/torch/utils/_contextlib.py", line 116, in decorate_context
    return func(*args, **kwargs)
  File "/mnt/workspace/projects/LLaMA-Factory-0.8.3/lf_8.3_env/lib/python3.10/site-packages/transformers/generation/utils.py", line 1758, in generate
    result = self._sample(
  File "/mnt/workspace/projects/LLaMA-Factory-0.8.3/lf_8.3_env/lib/python3.10/site-packages/transformers/generation/utils.py", line 2449, in _sample
    model_kwargs = self._update_model_kwargs_for_generation(
  File "/root/.cache/huggingface/modules/transformers_modules/glm-4-9b-chat/modeling_chatglm.py", line 929, in _update_model_kwargs_for_generation
    cache_name, cache = self._extract_past_from_model_output(outputs)
ValueError: too many values to unpack (expected 2)

glm4-9b-chat在使用llama-factory加载和微调时出现上面的报错,这个问题的主要原因还是项目中包版本不匹配。在最新的llama-factory中已经更新,所以一定要下载最新的llama-factory项目。

不要在git上releases中下载压缩包:

在这里插入图片描述

直接在git上下载main分支:

在这里插入图片描述
glm4-9b-chat在ModelscopeHuggingface上下载:

modelscope:https://www.modelscope.cn/models/ZhipuAI/glm-4-9b-chat/files

huggingface国内镜像:https://hf-mirror.com/THUDM/glm-4-9b-chat

`glm4-9b-1m` 和 `glm4-9b-chat` 都是由 CSDN 开发的 AI 模型,它们都是基于大语言模型构建的工具,旨在提供智能问答、代码生成等服务。然而,它们之间存在一些关键的区别: ### `glm4-9b-1m` - **目的定位**:`glm4-9b-1m` 通常指代一个较为通用的语言模型,其设计目标可能是处理多种任务,包括但不限于文本理解、自然语言生成、翻译等多个领域。 ### `glm4-9b-chat` - **特定功能**:`glm4-9b-chat` 更专注于聊天交互场景。这个名称暗示了它特别优化为了提供流畅的人机对话体验,能够更好地理解上下文、保持对话连贯,并能快速响应用户的提问或指令。 ### 区别 1. **应用场景**:`glm4-9b-1m` 可能更适用于需要广泛能力支持的任务,如多模态理解和生成、文本到文本转换等多种应用;而 `glm4-9b-chat` 则专门针对实交互需求,尤其适合于需要快速响应和高互动性的环境,比如客服机器人、即通讯助手等。 2. **技术细节**:尽管具体的内部架构细节可能不对外公开,但可以合理推测,`glm4-9b-chat` 的训练数据集可能包含了大量的对话历史记录,以及更多关于对话管理的知识,这有助于提升模型在连续对话过程中的性能。此外,它可能还经过了特定的优化,使得在对话过程中上下文保持一致性和流畅性成为可能。 3. **性能侧重点**:考虑到 `glm4-9b-chat` 的命名,我们可以假设该模型在处理连续对话任务上有着更高的效率和质量保证。这可能意味着在对话的持续性、话题转移的平滑过渡等方面有更强的表现。 ### 相关问题: 1. 这两个模型在训练数据集的选择上有何差异? 2. 对于需要大量交互式对话的应用来说,如何评估并选择最适合的模型? 3. 如果希望开发一款虚拟助理软件,应该考虑哪些因素来决定采用 `glm4-9b-1m` 还是 `glm4-9b-chat`?
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值