opennre 中文关系抽取_基于bert的中文实体关系识别(实体关系抽取)项目开源

本文介绍了在清华大学开源项目OpenNRE上实现的中文关系抽取,使用哈工大BERT-wwm模型,达到0.986的测试集准确率。文章详细阐述了实现过程,包括文本处理、模型训练和测试,并提供了数据下载和环境配置的指导。
摘要由CSDN通过智能技术生成

在清华大学开源的OpenNRE项目基础上实现中文实体关系识别

github项目地址,点我


一、中文关系抽取

使用哈工大,BERT-wwm,中文bert,在20w中文人物关系数据上的准确率达到0.97

实现过程

实现过程十分简单,如下:

1)token阶段:将文本根据两个实体位置分割成五个小片; 2)index阶段:文本开头使用[CLS],结尾使用[SEP],中间的分割使用[unused1-4]; 3)padding阶段:0填充,最大长度80; 4)attention mask,完成embedding; 5)通过bert模型; 6)全连接; 7)softmax。

训练结果

=== Epoch 0 train === 100%|██████████████████████████████████████████████████████████████████| 3094/3094 [40:12<00:00, 1.28it/s, acc=0.773, loss=0.687] === Epoch 0 val === 100%|██████████████████████████████████████████████████████████████████████████████████| 16/16 [00:06<00:00, 2.42it/s, acc=0.934] Best ckpt and saved. === Epoch 1 train 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值