torch模型调整

有无注意力机制导致的模型不收敛问题

去掉注意力后,发现测试集准确率一直为0,这时要关注测试集上的损失函数是否下降,如果没有下降,可能是学习率较大导致,需要调整模型学习率。

三维tensor,第三维度拼接问题

例子:(2,2,3),(2,2,4)拼接为(2,2,7)

embeds1维度为2*2*3,embeds2维度为2*2*7
    def embedding_stack(self, embeds1, embeds2):
    	# 存储拼接后的tensor
        embeds_list = []
        for i in range(len(embeds1)):
        	# 在列维度进行tensor拼接
            t = torch.cat((embeds1[i], embeds2[i]), 1)
            # 首先将cuda转为cpu,然后去掉梯度,转为numpy后可以转为list
            t = t.cpu().detach().numpy().tolist()
            embeds_list.append(t)
        # list转numpy,默认数据格式为float64
        embeds_np = np.array(embeds_list)
        # 将numpy数据格式转为指定格式float32,通过astype,不可直接用dtype=float32,会导致维度增加
        result = torch.from_numpy(embeds_np.astype('float32'))
        if settings.use_cuda:
            result = result.cuda()
        return result

LSTM输入向量数据类型问题

bert输出数据类型格式为float32;
当拼接完数据后,数据类型为float64,导致lstm错误RuntimeError: cuDNN error: CUDNN_STATUS_BAD_PARAM,可能的原因是精度太高导致lstm表示出错。

LSTM层数设置

一般不超过3层,当层数增加,测试集F1值为0时,可能输入向量导致的问题(bert起止标志表示错误,导致向量表示错误)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值