深度学习与NLP

参考

1 神经网络入门

在这里插入图片描述

1.1 神经元模型MP

在这里插入图片描述
三个已知属性的值是a1,a2,a3(特征),未知属性的值是z(目标)。z可以通过公式计算出来。

假设特征与目标之间确实是线性关系,并且我们已经得到表示这个关系的权值w1,w2,w3。那么,我们就可以通过神经元模型预测新样本的目标。

但是,MP模型中,权重的值都是预先设置的,因此不能学习。

1.2 单层神经网络(感知器)

拥有一个计算层的网络

  • 在原来MP模型的“输入”位置添加神经元节点,标志其为“输入单元”
  • 假如我们要预测的目标不再是一个值,而是一个向量,在输出层再增加一个“输出单元”
    在这里插入图片描述
    a = [a1,a2,a3]T (3 * 1)
    z = [z1,z2]T (2 * 1)
    =>g(W * a) = z , W (2 * 3)

与神经元模型不同,感知器中的权值是通过训练得到的。因此,根据以前的知识我们知道,感知器类似一个逻辑回归模型,可以做线性分类任务。

我们可以用决策分界来形象的表达分类的效果。决策分界就是在二维的数据平面中划出一条直线,当数据的维度是3维的时候,就是划出一个平面,当数据的维度是n维时,就是划出一个n-1维的超平面。

下图显示了在二维平面中划出决策分界的效果,也就是感知器的分类效果。
  在这里插入图片描述

1.3 两层神经网络(多层感知器)

具有非常好的非线性分类效果
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

需要说明的是,至今为止,我们对神经网络的结构图的讨论中都没有提到偏置节点(bias unit)。事实上,这些节点是默认存在的。它本质上是一个只含有存储功能,且存储值永远为1的单元。在神经网络的每个层次中,除了输出层以外,都会含有这样一个偏置单元。正如线性回归模型与逻辑回归模型中的一样。

在这里插入图片描述
在这里插入图片描述

1.4 多层神经网络(深度学习)

在这里插入图片描述
在这里插入图片描述

多层神经网络中,输出也是按照一层一层的方式来计算。从最外面的层开始,算出所有单元的值以后,再继续计算更深一层。只有当前层所有单元的值都计算完毕以后,才会算下一层。有点像计算向前不断推进的感觉。所以这个过程叫做“正向传播"

2 深度学习模型

2.1 RNN
2.2 LSTM

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值