带自注意力的命名实体识别迁移学习

Adversarial Transfer Learning for Chinese Named Entity Recognition with Self-Attention Mechanism

 

论文要点

这篇本质是迁移学习的文章,将CWS任务数据迁移到NER任务上;而使用对抗迁移学习的框架,在利用共享任务中的边界信息的同时,过滤分词任务的特有信息以免干扰NER任务【数据分布,分词粒度不一等】,对抗迁移学习是将对抗学习合并到迁移学习中。引入对抗学习保证CWS只利用task-shared词边界信息:

 

0

模型框架

https://note.youdao.com/yws/public/resource/af2266b15f2d544333a361885a4d86f0/xmlnote/088E08AEB7E24B5C9BC3A0075E69915B/9783

 

  1. 以char生成emb,虽然图中NER和CWS的emb画为两部分,不过这个应该是共享的
  2. NER和CWS任务各有一个share和private的特征抽取器,为BiLSTM,share的特征抽取器即为提取任务共享边界信息
  3. 使用multi head Self-Attention获取全局结构信息,将share和private结果拼接输入到CRF,计算NER和CWS任务的loss
  4. share层特征参与对抗学习,判断输入句子来自哪个任务数据集,其中梯度有个【Gradient Reversal】目的是希望共享结构不会包含任务信息的判断,不直接取反,是因为,二分类Loss取反时,还是能够起到分类作用的
  5. 最后训练用的Loss:

 模型效果

  • 模型效果:CSW任务使用MSR数据集

0

  • 各部分组件效果对比:

0

模型缺点

 

核心创新在于引入对抗训练,不过这个对抗训练的Loss效果存疑,仅在两个小规模数据集验证

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值