NLP
wxc_Huang
这个作者很懒,什么都没留下…
展开
-
关系抽取
用Bi-GRU+Attention和字向量做端到端的中文关系抽取 关系抽取可以简单理解为一个分类问题:给定两个实体和两个实体共同出现的句子文本,判别两个实体之间的关系。 GRU (Gated Recurrent Unit) 基于注意力机制的BiGRU判决结果倾向性分析 由于RNN在处理序列时具有严重的梯度消失问题, 即越靠后的节点对于前面的节点感知能力越低. 为了解决梯度消失问题 而GRU作为LSTM的变体, 对序列数据处理同样非常适合, 也是通过“门机制”来记忆前面节点的信息, 以此解决梯度消失问题. 基原创 2021-04-08 18:42:07 · 560 阅读 · 0 评论 -
序列标注与中文命名实体识别
序列标注与中文命名实体识别(NER)原创 2021-04-08 18:20:35 · 376 阅读 · 0 评论 -
机器学习 深度学习
参考链接 序列标注与中文命名实体识别(NER) 序列标注:对序列中的每一个元素做一个标记,或者说给每一个元素打一个标签 命名实体识别、分词 和 词性标注 等这些基本的NLP任务都属于序列标注的范畴 标注方式 BIEO标注方式(即 Begin, Intermediate, End, Other) 中文命名实体识别 将一段文本序列中包含的我们感兴趣的实体识别出来,例如人名,地名和机构名等。 命名实体识别的方法可以分成两大类: 基于规则 的方法:人工建立实体识别规则,存在着成本高昂的缺点 基于统计 的方法:需要语原创 2021-04-08 18:14:18 · 115 阅读 · 0 评论 -
ALBERT 的粗略理解
参考链接 【NLP实战】基于ALBERT的文本相似度计算 ALBERT是一个比BERT要轻量,效果更好的模型 ALBERT利用 词嵌入参数因式分解 和 隐藏层间参数共享 两种手段,显著减少了模型的参数量 的同时,基本没有损失模型的性能。 ALBERT输出的 第一个向量,可以 用来表征整体的输入文本 获取训练好的 ALBERT-zh 模型 ...原创 2021-04-08 17:09:47 · 205 阅读 · 0 评论