Deep Learning for Nature Language Processing --- 第四讲(下)

A note on matrix implementations

将J对softmax的权重W和每个word vector进行求导:

这里写图片描述

尽量使用矩阵运算(向量化),不要使用for loop。

模型训练中有两个开销比较大的运算:矩阵乘法f=Wx和指数函数exp

for loop

Softmax(=logistic regression) is not very powerful

softmax只是在原来的向量空间中给出了一些linear decision boundary(线性决策线),在小的数据集上有很好的regularization,但是在处理大数据集的时候会受到很大的限制。

这里写图片描述

但是neural network能够很好地克服softmax的缺点:

这里写图片描述

From logistic regression to neural nets

不单独介绍神经网络,可以参考其他介绍神经网络的文章

如果没有非线性的激活函数,那么输入x后,第一层就是W1*x,第二层就是W2*W1*x,等同于这个神经网络只有一层,权重为W2*W1。

有更多的层,deep learning就可以有近似(分类)更复杂数据集的功能:

这里写图片描述

神经网络的单层single layer就是一个线性表达式和一个非线性函数的组合:

这里写图片描述

激励activation可以用来计算某个函数,例如在softmax中:

这里写图片描述

示例:计算三层神经网络中一个window’ score(s=score(museumsinParisareamazing)):

这里写图片描述
score其实就是softmax的概率值

下一讲

训练一个window-based的神经网络

反向传播backpropagation

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值