NLP
wxc_Huang
这个作者很懒,什么都没留下…
展开
-
关系抽取
用Bi-GRU+Attention和字向量做端到端的中文关系抽取关系抽取可以简单理解为一个分类问题:给定两个实体和两个实体共同出现的句子文本,判别两个实体之间的关系。GRU (Gated Recurrent Unit)基于注意力机制的BiGRU判决结果倾向性分析由于RNN在处理序列时具有严重的梯度消失问题, 即越靠后的节点对于前面的节点感知能力越低. 为了解决梯度消失问题而GRU作为LSTM的变体, 对序列数据处理同样非常适合, 也是通过“门机制”来记忆前面节点的信息, 以此解决梯度消失问题.基原创 2021-04-08 18:42:07 · 555 阅读 · 0 评论 -
序列标注与中文命名实体识别
序列标注与中文命名实体识别(NER)原创 2021-04-08 18:20:35 · 373 阅读 · 0 评论 -
机器学习 深度学习
参考链接序列标注与中文命名实体识别(NER)序列标注:对序列中的每一个元素做一个标记,或者说给每一个元素打一个标签命名实体识别、分词 和 词性标注 等这些基本的NLP任务都属于序列标注的范畴标注方式BIEO标注方式(即 Begin, Intermediate, End, Other)中文命名实体识别将一段文本序列中包含的我们感兴趣的实体识别出来,例如人名,地名和机构名等。命名实体识别的方法可以分成两大类:基于规则 的方法:人工建立实体识别规则,存在着成本高昂的缺点基于统计 的方法:需要语原创 2021-04-08 18:14:18 · 111 阅读 · 0 评论 -
ALBERT 的粗略理解
参考链接【NLP实战】基于ALBERT的文本相似度计算ALBERT是一个比BERT要轻量,效果更好的模型ALBERT利用 词嵌入参数因式分解 和 隐藏层间参数共享 两种手段,显著减少了模型的参数量 的同时,基本没有损失模型的性能。ALBERT输出的 第一个向量,可以 用来表征整体的输入文本获取训练好的 ALBERT-zh 模型...原创 2021-04-08 17:09:47 · 202 阅读 · 0 评论