基于深度学习的自然语言处理——前馈神经网络

基于深度学习的自然语言处理——前馈神经网络前馈神经网络神经网络的由来数学表示感知器(最简单的神经网络)单隐层多层感知机(MLP1)表达能力常见非线性函数sigmoidtanhhard tanh修正线性单元(ReLU)损失函数正则化与丢弃法正则化丢弃法训练相似与距离层点积欧式距离可训练形式嵌入层参考文献前馈神经网络从现在开始,我们将进入真正的正题。前面的内容虽然基础,但是看了可能会有不同的感悟。...
摘要由CSDN通过智能技术生成

前馈神经网络

从现在开始,我们将进入真正的正题。前面的内容虽然基础,但是看了可能会有不同的感悟。

神经网络的由来

  • 神经网络的灵感来源于大脑的计算机制。
  • 具有正确权重、足够多的神经元和非线性激活函数的神经网络可以近似模拟广泛的数学函数。
  • 每个神经元都连接下一层的所有神经元称之为完全连接层或仿射层。

数学表示

感知器(最简单的神经网络)

是一个简单的线性模型:
N N P e r c e p t r o n ( x ) = x W + b NN_{Perceptron}\left( x \right) = xW + b NNPerceptron(x)=xW+b
x ∈ R d i n ,    W ∈ R d i n × d o u t ,    b ∈ R d o u t x \in {R^{ {d_{in}}}},\;W \in {R^{ {d_{in}} \times {d_{out}}}},\;b \in {R^{ {d_{out}}}} xRdin,WRdin×dout,bRdout
其中 W W W为权重矩阵, b b b为偏置项。

单隐层多层感知机(MLP1)

单隐层多层感知机的显示如下:
N N M L P 1 ( x ) = g ( x W 1 + b 1 ) W 2 + b 2 NN_{MLP1}\left( x \right) = g\left( {x{W^1} + {b^1}} \right){W^2} + {b^2} NNMLP1(x)=g(xW1+b1)W2+b2
x ∈ R d i n ,    W 1 ∈ R d i n × d 1 ,    b 1 ∈ R d 1 , W 2 ∈ R d 1 × d 2 , b 2 ∈ R d 2 x \in {R^{ {d_{in}}}},\;{W^1} \in {R^{ {d_{in}} \times {d_1}}},\;{b^1} \in {R^{ {d_1}}},{W^2} \in {R^{ {d_1} \times {d_2}}},{b^2} \in {R^{ {d_2}}} xRdin,W1Rdin×d1,b1Rd1,W2Rd1×d2,b

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值