tw1 model修改record

 原BiLSTM-CRF模型 

epoch 20/150: training loss = 0.9868; training accuracy = 0.7893; validation loss = 2.2454; validation accuracy = 0.5985 time = 0:06:31.032106

优化器 Adam ;LR 0.001

 feature layer加cnn补充特征 

 知识补充 

1. nn.linear() 是设置全连接层,输入输出需要是二维tensor [batch_size,size],也即:

in_feature是输入[batch_size,size]中的size

输出的tensor形状为[batch_size,out_feature]

卷积层输入输出是四维tensor?

2. torch.cat() ,torch.cat((A,B),dim),dim=0竖着拼接,dim=1横着拼接

3. 计算保留小数点:

format(float(a)/float(b),'.2f')

 record 

1. cnn拼接进去部分代码,均在run_all.py

设置两层conv,两层全连接

具体forward如下,其中部分hidden计算借用lstm的,并未做修改

lstm和cnn分别获取特征后,竖向拼接tensor

2. 初运行没问题,但acc计算出现错误,没有值

以下是修改过程:

hiddens拼接出错,竖着拼改了tensor维度

采用计算对应tensor的加权平均值,生成最终的tensor,维度与lstm_feats以及intercnn_feats相同

但trues还是0...接着查,然后修改了trues的计算方式,可以成功计算出trues并计算acc,val_trues处做同样修改

人家原本的没毛病,又改回来了

跑了50个epochs,又忘记截图了.........提升不大,在增加F1计算,后面重新跑一次吧。

 改BiLSTM到transformer 

 知识补充 

 record 

 修改embedding 

 知识补充 

 record 

原model的embedding是由train.txt先过预处理,之后split,再生成一个pkl文件,pkl里是按位置生成的word对应向量,unk的为0。

修改

先加个elmo的word-level embedding

 两个embedding出的tensor拼接方式还没确定

# 0331

elmo模型加载太慢,太拉跨embedding速度了。

但只用character-level特征,token embedding使用原bi的pkl对应,在后embedding 与bert方法的pos embedding相加,整体训练速度变化不大,epoch1测试的train acc 0.5568:)

在使用原bi 的pkl到bert 的token embedding时,会报index溢出错误,原pkl的标码是len+1的,所以就拆到一边去单独生成pos embedding再拼接了。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值