3天深入浅出NLP笔记(四)比赛思路进阶专题

模型调参

在这里插入图片描述
参数初始化方法:
在这里插入图片描述
模型调参技巧:

  1. 数据打乱可以增加随机性。
  2. BN用于图像;LN用于文本
  3. 对超过阈值的梯度值进行规约。
  4. dropout对神经元的删除。防止过拟合
  5. adam优化器。分类常用。
  6. 学习率 偏小
  7. 激活函数
  8. 其他超参数,loss优化方式,只是在一点有效
  9. 全连接层
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

模型融合

交叉验证模型融合

  1. 先试试Bert系列(5个模型)
  2. 不同迭代次数的模型可以作为模型融合
  3. 半监督加入数据量的多少
    在这里插入图片描述

预训练模型

五个预训练模型:

在这里插入图片描述

文本输入的截断策略:

文本长,采用截断策略,截断文本之后不用 / 之前不用 / 前+后。
在这里插入图片描述

五种预训练模型:

Bert-WWM更好,比Bert好。
在这里插入图片描述
在这里插入图片描述
Albert :bert模型每层Attention参数多。Albert 可以用参数共享的方式
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

fine-tune: 五种预训练模型结构:

Bert:字
在这里插入图片描述
Bert-WWM:词
在这里插入图片描述
AlBERT:
小版本的网络深度小,起始字符
在这里插入图片描述
Roberta:
在这里插入图片描述
XLNet:输出内容融合
在这里插入图片描述

特征工程

结合特征工程来做模型融合。

  1. 情感次出现的次数
  2. 将CNN模型的结果和Bert结果(基于词)进行融合。 ——推荐使用
  3. 没有预训练模型时,用Word2vec来。
  4. 不常用
    在这里插入图片描述
    在这里插入图片描述

模型融合总结

技巧部分——模型调参技巧:

  1. 数据打乱可以增加随机性。
  2. BN用于图像;LN用于文本
  3. 对超过阈值的梯度值进行规约。
  4. dropout对神经元的删除。防止过拟合
  5. adam优化器。分类常用。
  6. 学习率 偏小
  7. 激活函数
  8. 其他超参数,loss优化方式,只是在一点有效
  9. 全连接层
    多模型融合(stacking)有效!!!:加入特征进行模型学习;基于预训练模型;Bert和NN Model融合。。。很多个模型投票;很多个模型stacking

作业

在这里插入图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Laura_Wangzx

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值