bert中文预训练模型_[中文医疗预训练模型] MC-BERT

62d27625b35bf979cc270975826fc17b.png

Conceptualized Representation Learning for Chinese Biomedical Text Mining

作者:Ningyu Zhang, Qianghuai Jia, Kangping Yin, Liang Dong, Feng Gao, Nengwei Hua

作者单位:Alibaba Group

项目地址:https://github.com/alibaba-research/ChineseBLUE

预训练模型:mc_bert_base.tar.gz

  1. 背景

总结:生物医学领域的中文预训练以及评测基准数据集。

拟解决的问题:如何检索生物医学领域知识;如何在模型预训练中利用生物医学领域的知识。

2. 方法

(1)Whole Entity Masking

解决的问题:遮盖类似于”腹痛“的医疗实体,将这种医疗知识显式地注入模型中。

步骤:

1)使用实体命名识别预测医疗实体;

2)使用中文医疗知识图谱后处理实体。

(2)Whole Span Masking

解决的问题:医疗实体还不足够,医疗文本中存在类似”

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值