Deep learning 学习笔记(一)

1.深度网络是天然多层,但天然多层不一定是神经网络
2.deep = many hiden layers
3.层数越多,训练时间越长
4.DL三步
在这里插入图片描述
5.DL流程
在这里插入图片描述

6.第一步:neural network(神经网络)
在这里插入图片描述
激活函数:这里用sigmoid做激活函数,但其实可以有很多种选择
在这里插入图片描述
在这里插入图片描述
这部分可以用gpu加速
在这里插入图片描述
softmax :softmax逻辑回归模型是logistic回归模型在多分类问题上的推广,在多分类问题中,类标签y可以取两个以上的值。y值也会做softmax处理
multi-class classifier:多分类器
在这里插入图片描述
在这里插入图片描述

问题:
1)多少层?每层多少nueron?
经验+直觉:6层起,先过拟合了,再对半对半增减
2)传统特征工程:关键点是特征工程
深度学习:关键点是构造神经网络
不同的case就看什么方法容易一点,比如语音和图像,深度学习比较容易
nlp:Natural Language Processing 自然语言处理

7.第二步:计算TOTAL LOSS,GD法找最小化
分类问题,就要算交叉熵cross entropy
👆分类问题,就要算交叉熵cross entropy,然后调整参数,让交叉熵越小越好
C可以理解为y与y^之间的距离,距离越小越好
C可以理解为y与y^之间的距离,距离越小越好
常用的距离有:方差,交叉熵,MAE

👇用梯度下降法找θ
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

反向转播算法 backpropagation:
1)一种很方便的计算上述偏微分的方法,作用其实只是让GD更加高效
(tensorflow可实现)
2)chain rule (链式法则)
在这里插入图片描述
3)计算
在这里插入图片描述
在这里插入图片描述
forward pass :在前馈时同时用变量储存了每层的梯度
在这里插入图片描述

在这里插入图片描述
👆注意:z = wx+b,z不是激活函数,但是下一层的input是z经过激活函数之后的output(eg:layer2是0.12,不是-2)

backward pass:

先正向看
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
反向看:每个输出层也是方向传播的输入层

在这里插入图片描述
👆σ’(z)是一个常数,因为a = σ(z),z是已经确定的,每层的激活函数σ也是确定的

递推(不是递归,因为每次并不完全相同,激活函数每层可以不一样),一直到最后一层,最后一层就是反向传播的开始

👇 如何计算:z‘和z’’对C的偏微分
在这里插入图片描述
C y都已知,可以直接计算
在这里插入图片描述

**总结back propagation:**先正向计算z和y和损失,再从损失函数开始反向计算偏导
在这里插入图片描述
信号正向传播,误差反向传播
在这里插入图片描述

反思:DL真的那么有意义吗?
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值