一些问题记录

问题一:AttributeError: 'NoneType' object has no attribute 'seek'

仔细检查代码中模型路径,模型名称等正确与否。多数情况下是由于torch.load()时由于路径错误load不到文件。

    if model_to_open != "":
        saved_state = torch.load(
            model_to_open, map_location=lambda storage, loc: storage
        )
        shared_model.load_state_dict(saved_state['model'])

问题二:TypeError:forward() missing 1 required positional arguement:"a"

检察实例化模型时括号是否多打少打,括号中是否忘记参数args。

问题三:在原始代码中加入一个新模型,可以正常训练但模型无法保存输出。

代码使用多进程训练,多个模型的optimizer要写到一起,用一个优化器优化。

    if shared_model is not None:
        shared_model.share_memory()
        optimizer = optimizer_type(
            list(filter(lambda p: p.requires_grad, shared_model.parameters())) +
            list(filter(lambda p: p.requires_grad, shared_icm_model.parameters())), args
        )
        optimizer.share_memory()

问题四:训练时未出现问题,但是测试时报错(如TypeError: argument of type 'NoneType' is not iterable等)。

导航任务中,训练和测试的episode不是一个文件,注意统一修改,看是不是val_tese_episode.py文件中有参数未传。

以上均为个人遇到的问题解决记录,不完全适用于所有情况!
To be continue......
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
为了更好地记录您的答辩过程,以下是您在回答问题时的情况记录问题1:您的模型在训练过程中是否考虑了过拟合的问题? 回答1:是的,我们在训练过程中使用了一些正则化技术,如dropout和L2正则化,以防止模型过度拟合训练数据。 问题2:您的模型在处理多语言数据时表现如何? 回答2:我们的模型在处理多语言数据方面表现良好。我们使用了多语言的训练数据,以及一些跨语言的技术,如语言嵌入和多语言对齐,来提高模型的跨语言能力。 问题3:您的模型在处理长文本时是否存在性能问题? 回答3:在处理长文本时,我们的模型确实存在性能问题。为了解决这个问题,我们使用了一些技术,如截断和注意力机制,以便模型只关注文本中最重要的部分,从而提高模型的性能和效率。 问题4:您的模型在处理特定领域的数据时是否需要进行特定的调整? 回答4:是的,对于一些特定领域的数据,我们需要进行特定的调整,例如领域特定的预处理和特定领域的语言模型微调。这可以帮助我们的模型更好地适应特定领域的语言和知识。 问题5:您的模型在生成文本时如何保证生成的文本是准确的和合理的? 回答5:在生成文本时,我们使用了一些技术,如beam search和n-gram重复惩罚,以确保生成的文本是准确的和合理的。此外,我们还进行了一些人工评估和自动评估,以评估模型生成的文本的质量和准确性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值