深度学习NLP笔记(五):反向传播

本文深入探讨了深度学习中自然语言处理的反向传播原理,从链式求导与计算图出发,解释了如何在神经网络中进行反向传播。通过实例解析了在不同神经元结构中,如何利用反向传播优化权重矩阵,最终达到误差反传和参数更新的目的。
摘要由CSDN通过智能技术生成

关于反向传播,这篇博客写的相当详细:http://www.cnblogs.com/charlotte77/p/5629865.html 但还是要自己写一篇才能明白自己是否真的懂了。

一、链式求导与计算图

设有一实数变量 x x x f f f g g g是两个函数,假设 y = g ( x ) y=g(x) y=g(x)同时 z = f ( g ( x ) ) = f ( y ) z=f(g(x))=f(y) z=f(g(x))=f(y),那么链式求导就是: d z d x = d z d y d y d x \frac{dz}{dx}=\frac{dz}{dy}\frac{dy}{dx} dxdz=dydzdxdy
  将这个概念扩展到高维,设 x ∈ R m , y ∈ R n x\in \mathbb{R}^{m},y\in \mathbb{R}^{n} xRm,yRn,g是从 R m \mathbb{R}^{m} Rm R n \mathbb{R}^{n} Rn的映射, f f f是从 R n \mathbb{R}^{n} Rn R \mathbb{R}

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值