吴恩达deeplearning机器学习笔记
XLearning88
这个作者很懒,什么都没留下…
展开
-
Coursera Deeplearning.ai「深度学习」课程笔记L1.W4深层神经网络
深层神经网络1. 各参数的向量化表示2. 前向传播3. 反向传播4. 核对矩阵维数 1. 各参数的向量化表示 LLL表示神经网络的层数,输入层的索引为0,对于每层 lll 都用a[l]a^{[l]}a[l]。 用 w[l]w^{[l]}w[l] 来记作在 lll 层计算 z[l]z^{[l]}z[l] 的权重,再通过用激活函数 ggg 计算 a[l]a^{[l]}a[l]。 (1)输入变量A[0]...原创 2019-04-16 12:57:47 · 230 阅读 · 0 评论 -
Coursera Deeplearning.ai「深度学习」课程笔记L5.W1循环序列模型
循环序列模型1 - 序列模型数学符号2 - 循环神经网络模型(Recurrent Neural Network, RNN)2.1 - 图形表示2.2 - 符号表示2.3 - 激活函数2.4 - 损失函数2.5 - 通过(穿越)时间反向传播-backpropagation through time 1 - 序列模型数学符号 给定这样的输入数据 xxx,假如想要一个序列模型输出 yyy。 x&...原创 2019-05-19 14:58:59 · 183 阅读 · 0 评论 -
Coursera Deeplearning.ai「深度学习」课程笔记L3.W1机器学习策略
机器学习策略1. 查准率、查全率、精确度等2. F~1~度量(F~1~-Score) 1. 查准率、查全率、精确度等 查准率 (Precision)和查全率(Recall) 对于二分类问题,可将样例根据其真实类别与学习器预测类别的组合划分为真正例(true positive)、假正例(false positive)、真反例(true negative)、假反例(false negative)四种情...原创 2019-04-30 18:20:07 · 372 阅读 · 0 评论 -
Coursera Deeplearning.ai「深度学习」课程笔记L4.W1卷积神经网络
卷积神经网络1 - 边缘检测 & 过滤器1.1 - 过滤器类别一般过滤器Sobel过滤器Scharr过滤器1.2 - 编程中的卷积(convolution)2 - Padding(填充)2.1 - Valid卷积2.2 - Same卷积3 - 步长(strided convolutions)4 - 卷积神经网络中的各种标记5 - 池化层(pooling layers) 1 - 边缘检测 &...原创 2019-05-08 18:40:01 · 213 阅读 · 0 评论 -
Coursera Deeplearning.ai「深度学习」课程笔记L2.W3超参数调试、正则化和程序框架
超参数调试、正则化和程序框架1. 超参数范围选择2. Batch归一化 (Batch Norm)Softmax回归Softmax激活函数与Sigmoid 和 ReLu 激活函数的区别 1. 超参数范围选择 学习率 α\alphaα α=10r\alpha =10^rα=10r,其中r∈[a,b],r为随机数r\in[a,b],r为随机数r∈[a,b],r为随机数,因此α∈[10a,10b]\al...原创 2019-04-19 16:55:22 · 253 阅读 · 0 评论 -
Coursera Deeplearning.ai「深度学习」课程笔记L2.W2优化算法
优化算法1. Mini-batch梯度下降 (Mini-batch gradient descent)2. 指数加权平均数 (exponentially weighted averages)3. 动量梯度下降法 (Gradient descent with Momentum)4. RMSprop (root mean square prop)5. Adam优化算法 (Adam optimizat...原创 2019-04-18 21:58:46 · 280 阅读 · 0 评论 -
Coursera Deeplearning.ai「深度学习」课程笔记L2.W1深度学习的实践层面
深度学习的实践层面1. 训练、验证、测试集2. 正则化和Dropout法3. 梯度检验4. 梯度检验应用的注意事项 1. 训练、验证、测试集 在机器学习中,我们通常将样本分成训练集,验证集和测试集三部分 数据集规模相对较小(万,数量级),适用传统的划分比例,60%训练,20%验证和 20%测 试集 数据集规模较大的(百万,数量级),验证集和测试集要小于数据总量的 20%或 10%。假设我们有...原创 2019-04-18 14:09:16 · 345 阅读 · 0 评论 -
Coursera Deeplearning.ai「深度学习」课程笔记L1.W3浅层神经网络
浅层神经网络1. 激活函数 1. 激活函数 sigmoid 激活函数:除了输出层是一个二分类问题基本不会用它。 tanh 激活函数:tanh 是非常优秀的,几乎适合所有场合。 ReLu 激活函数:最常用的默认函数,如果不确定用哪个激活函数,就使用 ReLu 或者 Leaky ReLu。 ...原创 2019-04-15 15:31:51 · 237 阅读 · 0 评论 -
Coursera Deeplearning.ai「深度学习」课程笔记L1.W2神经网络的编程基础
神经网络编程基础符号定义Python基础numpy包逻辑回归sigma函数损失函数 VS 代价函数向量化 符号定义 xxx: 表示一个nnn维数据,为输入数据,维度为(n,1)(n,1)(n,1); yyy: 表示输出结果 (x(i),y(i))(x^{(i)},y^{(i)})(x(i),y(i)): 表示第iii组数据 X=[x(1),x(2),...,x(m)]X = [x^{(1)}, x...原创 2019-04-14 12:28:37 · 230 阅读 · 0 评论 -
Coursera Deeplearning.ai「深度学习」课程笔记L4.W2深度卷积神经网络:实力探究
深度神经网络1 - 残差网络(Residual Networks (ResNets)) 1 - 残差网络(Residual Networks (ResNets)) 如上图所示,xxx表示输入,F(x)F(x)F(x) 表示残差块在第二层激活函数之前的输出,即 F(x)=W2σ(W1x)F(x)=W_2\sigma(W_1x)F(x)=W2σ(W1x),其中 W1W_1W1 和 W2W_2W...原创 2019-05-13 13:07:51 · 287 阅读 · 0 评论