Hugging face 的问题记录 I

Error 1.

Torch.utils.datasets和huggingface的datasets是不一样的

Error 2. cuDNN error: CUDNN_STATUS_NOT_INITIALIZED

准确来说,这不是Hugging face的问题,是我在使用Torch时遇到的问题,现在也收集其中

出现的原因主要时CUDA runtime version不合适,解决方案参考帖子

pip install torch==1.8.0+cu111 torchvision==0.9.0+cu111 torchaudio==0.8.0 -f https://download.pytorch.org/whl/torch_stable.html

Error 3. vars() argument must have dict attribute?

这个问题出现的原因多半是因为使用了自定义的dataset,但是在训练模型的时候没有传入相对于的data_collator

问题代码如下:

    encoded_texts = tokenizer(texts, padding = True, truncation = True, return_tensors = 'pt')
    labels = torch.tensor(labels)
    dataset = TensorDataset(encoded_texts['input_ids'], encoded_texts[<
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
下面是一个使用Python实现的简单示例代码,用于演示如何使用Hugging Face Transformers库中的ChatGPT模型进行对话: ```python from transformers import AutoModelForCausalLM, AutoTokenizer # 加载预训练的ChatGPT模型和分词器 model = AutoModelForCausalLM.from_pretrained("microsoft/DialoGPT-medium") tokenizer = AutoTokenizer.from_pretrained("microsoft/DialoGPT-medium") # 对话的上下文历史记录 history = [] # 开始对话 while True: # 获取用户输入 user_input = input("User: ").strip() # 将用户输入添加到历史记录中 history.append(user_input) # 将历史记录转换为模型输入 input_ids = tokenizer.encode(history, return_tensors='pt') # 生成回复 output_ids = model.generate(input_ids, max_length=1000, pad_token_id=tokenizer.eos_token_id) # 将回复转换为人类可读的文本并输出 response = tokenizer.decode(output_ids[:, input_ids.shape[-1]:][0], skip_special_tokens=True) print("ChatGPT: " + response) # 将回复添加到历史记录中 history.append(response) ``` 在这个示例中,我们使用了Hugging Face Transformers库中的`AutoModelForCausalLM`和`AutoTokenizer`类来加载预训练的ChatGPT模型和分词器。然后,我们使用`input()`函数获取用户输入,并将其添加到对话历史记录中。接下来,我们将历史记录转换为模型输入并使用`generate()`方法生成回复。最后,我们将回复转换为人类可读的文本并输出。然后将回复添加到对话历史记录中,以便下一轮对话使用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值