Neural Networks and Deep Learning -- Class 4: Deep Neural Networks

4.1 深层神经网络
浅层网络 -> 深层网络
有些函数只有深度模型才可以学习,浅层模型学习不了
4.2 深层网络中的前向传播
z[l]=w[l]a[l-1]+b[l]
a[l]=g[l](z[l])
对每一层的前向传播,需要用for循环 1-> L
4.3 核对矩阵的维数
由网络结构推导出 每一层的输入与输出矩阵的维度
=> W维度: W[L]=(n(l),n(l-1)) dW相同
b维度:b[L]=(n[l],1) db相同
Z,A 维度相同
Z[L]=(n(L),m) A[L]=(n(L),m) dZ(L),dA(L)与之相同
4.4 为什么使用深层表示
不一定要大,但是要深,有比较多的隐藏层
神经网络在表示什么? => 探测简单的边缘 -> 组合表示复杂的函数
只用比较少的层数,会导致横向规模指数增长
4.5 搭建深层神经网络块
正向+反向
缓存Z的值
4.6 前向和反向传播
算法的复杂性/有效性,来源于数据,而不是代码
4.7 参数&超参数
参数:W,b
超参数:学习率,循环次数,隐层数量,隐层单元数,激活函数 【控制实际参数的参数】
应用深度学习,很多时候依赖于经验:尝试,有效就用。。
最优参数可能会随时间变化 【CPU,GPU等可能会有较大变化】,经验规律每过几个月就会变。。
4.8 这和大脑有什么关系?
没啥关系,人类大脑的很多奥秘并未被人们所知

【习题】
【错题】
2. Among the following, which ones are "hyperparameters"? 
activation values. 注意是激活函数的值,而不是激活函数的选择,当然不是超参数啦
6. 没找到图。。
9. 没找到图。。
【重点】
1. The "cache" records values from the forward propagation units and sends it to the backward propagation units because it is needed to compute the chain rule derivatives.
7. During backpropagation you need to know which activation was used in the forward propagation to be able to compute the correct derivative.
不同激活函数在反向传播进行求导时的公式不同
Sklearn和DeepLearning4j是两个不同的机器学习框架。Sklearn是一个流行的Python机器学习库,提供了各种常用机器学习算法的实现和工具。它包括了数据预处理、特征选择、模型评估等功能。而DeepLearning4j是一个用Java编写的深度学习库,主要用于建立和训练神经网络模型。 在你提供的引用中,引用是Sun等人在2016年的一篇论文,标题为"Deep Residual Learning for Image Recognition",该论文介绍了一种深度学习模型用于图像识别的方法。引用是一段代码,用于在Sklearn中进行平面数据分类的实验。引用则是一篇关于数据预处理的文章目录。 综上所述,Sklearn是一个Python机器学习库,而DeepLearning4j是一个Java深度学习库,它们分别用于不同的机器学习任务。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [深度残差收缩网络和极端随机森林.zip](https://download.csdn.net/download/qq_30803353/87761760)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [Coursera-Deep Learning Specialization 课程之(一):Neural Networks and Deep Learning-weak3编程作业](https://blog.csdn.net/leaeason/article/details/78262356)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [MachineLearning&DeepLearning:数据预处理](https://blog.csdn.net/qq_34262612/article/details/108392610)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值