论文研读record1 #ner

Conll2003相关数据集是基于新闻的(命名实体识别NER和实体识别任务的语料库集合 | INFORX (inforscan.com)

1# TENER: Adapting Transformer Encoder for Named Entity Recognition

AIM:看改进的transformer的自适应编码

code:https://github. com/fastnlp/TENER.

基于conll2003数据集。

改进两个方面,主要都是在encoder位置。

没理解character-level和word-level的encoder区别,需要check一下。

补充character-level encoder

to alleviate the data sparsity and OOV problem in word representation.缓解在单词表示时数据稀疏和OOV问题。

对比模型,一个是transformer在两个level维度都用到transformer,还一个是利用改进的自适应编码(注意方向和位置的aen),以及利用cnn进行character-level编码,三个对比。

整体还对比了利用ELMO进行embed的F1效果。

主要改进:分word-level和character-level两个维度分别进行encoder的替换改进。

如果要参考加的transformer自适应编码,要再去看他的中间公式计算,暂时没看,只看了大概含义。

2#

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值