吴恩达 Deep Learning(1-36)ppt逐行理解

课程地址:(超爽中英!) 2024公认最好的【吴恩达深度学习】教程!附课件代码 Professionalization of Deep Learning_哔哩哔哩_bilibili

1.目录

2.什么是神经网络

3.用神经网络进行监督学习

4.为什么深度学习会兴起

7.二分分类

适用于二元分类问题的函数:逻辑回归,输出0/1

9.logistic回归损失函数

10.梯度下降法

15.logistic回归中的梯度下降法

da/dZ==a(1-a)

所以dL/dZ=a-y

求dL/dw1=x1*dZ  dL/dw2=x2*dZ   dL/db=dZ  

16.m个样本的梯度下降

上图就是梯度下降的一次迭代

但是在里面有两个循环,外层循环是1~m,内层循环是w1~wn

矢量化可以避免循环

17.向量化

用向量化避免loop,提高代码运行速率

18.向量化的更多例子

19.向量化logistic回归

正向传播一步迭代的向量化实现,同时处理m个训练样本

20.向量化logistic回归的梯度输出

上个视频学会了计算向量化计算整个训练集预测值a

这个视频将学会向量化计算m个训练数据的梯度

这个技术叫Broadcasting

21.Python中的广播

24.(选修)logistic损失函数的解释 未来看

25.神经网络概览

26.神经网络表示

a[0]  a[n]每一层的激活值

27.计算神经网络的输出

补:a[1]=将sigmoid作用于矩阵Z[1]

向量化的经验法则:如果一层有不同的节点,就将他们纵向堆叠起来

28.多样本向量化 29向量化实现的解释 都是线代

30.激活函数

建立神经网络有很多选择,比如隐藏单元数、激活函数、如何初始化权重

对于你的项目,事实上很难预测哪种选择最有效,最好是实际上跑一跑

31.为什么需要非线性激活函数

只有一种情况可以使用线性激活函数,就是当预测房价,最高可以无穷大,那么在输出层可以使用线性激活函数,并且隐藏层必须是非线性的激活函数

只有压缩或者非常特殊的情况,在隐藏层使用线性激活函数

32.激活函数的导数

33.神经网络的梯度下降法

34.(选修)直观理解反向传播

反向传播公式手推:

35.随机初始化

补充:每个激活函数的权重也是一样的

单层神经网络设为0.01应该还可以,如果是深层的需要尝试其他的constant 

36.深层神经网络

介绍了一些符号约定。

a[l]最后一层的a l表示层数

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值