bert pytorch 序列标注_Transformer-based-pretrained-model-for-event-extraction: 使用bert/gpt2/albert/xlm/ro...

该博客介绍了如何利用bert/gpt2/albert/xlm/roberta等预训练模型在ace2005数据集上进行事件抽取任务,特别是在XLM-RoBERTa-large模型下,触发词识别F1得分达到0.762,论元识别F1得分为0.488。模型采用序列标注方式,并提供了详细的超参数设置。
摘要由CSDN通过智能技术生成

Transformer-based-pretrained-model-for-event-extraction

使用bert/gpt2/albert/xlm/roberta等预训练语言模型在ace2005上进行事件抽取任务。 代码在nlpcl-lab / bert-event-extraction框架上修改,使用pytorch 的transformer和crf模型替换了原项目的模型构建部分。 模型整体采用序列标注的方式,未使用任何辅助信息。 先用crf做触发词识别,再根据触发词识别结果再用crf进行论元识别,预训练模型选用xlm-roberta-large时,trigger-f1=0.72; argument-f1=0.45。argument提升了0.05。

[trigger classification]P=0.677R=0.754F1=0.713

[argument classification]P=0.588R=0.384F1=0.464

[trigger identification]P=0.723R=0.805F1=0.762

[argument identification]P=0.617R=0.403F1=0.488

超参如下

==================== 超参 ====================

PreTrainModel = ['Bert_large', 'Gpt', 'Gpt2&

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值