![](https://img-blog.csdnimg.cn/20210920094739705.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
DeepLearning
文章平均质量分 96
吴恩达深度学习笔记。
无糖馥芮白
不问前程。
展开
-
吴恩达《序列模型》01——循环神经网络RNN
文章目录一、序列模型1. 什么是序列模型?2. 数学符号(Notation)二、循环神经网络1. 标准NN存在的问题2. RNN3. 通过时间反向传播(Backpropagation through time)4. 不同结构三、语言模型1. Language model and sequence generation2. 采样(Sampling novel sequences)四、GRU和LSTM1. RNN 的梯度消失(Vanisging gradients with RNNs)2. GRU(门控循环单元原创 2021-10-30 13:22:33 · 1847 阅读 · 0 评论 -
吴恩达《卷积神经网络》02——经典卷积网络
文章目录一、LeNet-5二、AlexNet三、VGG-16四、ResNets1. Why ResNets Work五、Inception Network1. 1x1 Convolutions2. Inception Network Motivation3. 计算成本问题4. Inception Network六、其他1. 使用开源的实现方案2. 迁移学习(Transfer Learning)3. 数据增强(Data Augmentation)4. 计算机视觉现状(State of Computer Vis原创 2021-10-23 15:17:25 · 379 阅读 · 0 评论 -
吴恩达《卷积神经网络》01——卷积神经网络基础
文章目录一、计算机视觉(Computer Vision)二、边缘检测(Edge Detection)1. 边缘检测例子(Edge Detection Example)2. 更多边缘检测的例子(More Edge Detection)三、padding 与 Strided Convolutions1. padding2. 卷积步长(Strided Convolutions)四、高维卷积(Convolutions Over Volume)1. 单层卷积网络(One Layer of a Convolutiona原创 2021-10-15 15:44:46 · 625 阅读 · 0 评论 -
吴恩达【优化深度神经网络】笔记03——超参数调试、Batch正则化和编程框架
文章目录一、超参数调试处理(Tuning Process)1. 重要程度排序2. 调参技巧3. 选择合适的范围4. Hyperparameters tuning in practice: Pandas vs. Caviar二、批标准化(Batch Normalization)1. 将 BN 应用于神经网络(Fitting Batch Norm into a neural network)2. BN 有效的原因(Why does Batch Norm work?)3. 测试时的 Batch Normaliza原创 2021-10-14 20:15:39 · 259 阅读 · 0 评论 -
吴恩达【优化深度神经网络】笔记02——优化算法
文章目录一、Mini-batch梯度下降(Mini-batch gradient descent)1. 复习:batch梯度下降2. Mini-Batch 梯度下降法3. Understanding mini-batch gradient descent3.1 batch的不同大小(size)带来的影响:3.2 Batch梯度下降法和随机梯度下降法的比较3.3 mini-batch大小的选择3.4 获得mini-batch 的步骤二、指数加权平均(Exponentially weighted average原创 2021-10-04 19:14:40 · 295 阅读 · 0 评论 -
吴恩达【优化深度神经网络】笔记01——深度学习的实用层面
文章目录引言一、训练集/验证集/测试集(Train/Dev/Test sets)1. 数据集选择2. 补充:交叉验证(cross validation)二、偏差和方差(Bias/Variance)1. “偏差-方差分解”(bias-variance decomposition)2. 输入特征是高维的情况3. 应对方法三、正则化(regularization)1. L2 regularization2. L1 regularization3. 神经网络中的正则化4. 权重衰减(weight decay)四、正原创 2021-10-02 18:37:50 · 299 阅读 · 0 评论 -
吴恩达【深度学习】笔记03——深层神经网络(Deep Neural Networks)
文章目录一、深层神经网络(Deep L-layer neural network)二、前向传播和反向传播(Forward and backward propagation)1. Forward propagation2. Backward propagation3. Building blocks of deep neural networks三、核对矩阵的维数(Getting your matrix dimensions right)四、为什么使用深层表示?(Why deep representation原创 2021-10-01 14:03:07 · 952 阅读 · 0 评论 -
吴恩达【深度学习】笔记02——浅层神经网络(Shallow neural networks)
一、神经网络表示竖向堆叠起来的输入特征被称作神经网络的输入层(the input layer)。神经网络的隐藏层(a hidden layer)。“隐藏”的含义是在训练集中,这些中间节点的真正数值是无法看到的。输出层(the output layer)负责输出预测值。如图是一个双层神经网络,也称作单隐层神经网络(a single hidden layer neural network)。当我们计算网络的层数时,通常不考虑输入层,因此图中隐藏层是第一层,输出层是第二层。约定俗称的符号表示:二、原创 2021-09-25 17:21:19 · 758 阅读 · 0 评论 -
吴恩达【深度学习】笔记01——向量化、For循环及Python中的Broadcasting
向量化是非常基础的去除代码中for循环的艺术,在深度学习安全领域、深度学习实践中,你会经常发现自己训练大数据集,因为深度学习算法处理大数据集效果很棒,所以代码的运行速度非常重要。否则在数据集很大时,代码需要花费很长时间去处理。在深度学习领域,运行向量化是一个关键的技巧。文章目录1. 向量化2. 向量化实现3. 非向量化实现4. python中的广播5. 补充:关于numpy中向量的说明1. 向量化举一个例子说明什么是向量化:在逻辑回归中需要计算 z=wTx+bz = w^Tx + bz=wTx+b原创 2021-09-20 12:31:38 · 1017 阅读 · 0 评论