Named Entity Recognition

这篇博客介绍了神经网络的基础,包括深度前馈网络如何通过参数θ找到输入x到输出y的映射。讨论了损失函数在训练过程中的作用,并聚焦于命名实体识别(NER)任务。NER的目标是在文本中识别并分类命名实体,如人名、地点等。窗格分类方法使用词向量和softmax分类器来确定单词附近上下文的类别。博客还提到了softmax分类器的损失函数——交叉熵,并强调了神经网络处理非线性关系的能力。
摘要由CSDN通过智能技术生成

神经网络基础知识

Deep feedforward network

对于输入 x x x,神经网络想要找到映射 y = f ( x ; θ ) y=f(x;\theta) y=f(x;θ)和合适的参数 θ \theta θ,使得其预测尽量接近于真实函数 f ∗ f^* f
前馈:所有信息都从输入 x x x 经过中间某些计算最终输出到 y y y

损失函数

NER

NER问题定义

目的是找到文本中的名字并对其进行分类。有的时候很难判断一个词是不是named entity。

Window Classification

对该词再某一窗口内附近的词对其进行分类(类别是人名、地点、机构名等等)。
例如对于museums in Paris are amazing,希望探测的地点名为Paris。窗口大小为2,通过词向量方法(如word2vec)得到窗口内5个单词的词向量,将这5个向量连在一起得到更大的向量,再对向量进行分类:

在这里插入图片描述
Softmax classifier:
x x x:输入的词向量;
y y y:对应的class,共有 k k k 个class;
x x x 对应类别为 y y y 的概率为:
p ( y ∣ x ) = e x p ( W y ⋅ x ) ∑ c = 1 k e x p ( W c ⋅ x ) p(y|x)=\frac{exp(W_{y}\cdot x)}{\sum_{c=1}^{k}exp(W_{c}\cdot x)} p(yx)=c=1kexp(Wcx)exp(Wyx)
损失函数为其交叉熵:
在这里插入图片描述
为处理输入元素间的非线性关系,利用neural network,输出层为计算的每一个class的概率值。

Reference

[1] https://zhuanlan.zhihu.com/p/61601575
[2] https://zhuanlan.zhihu.com/p/38431213

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值