![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
deeplearning.ai 笔记及课后作业分享
pia君
菜鸟一枚
展开
-
structuring ML projection——第二周
朝什么方向来优化模型在测试集中找100张识别错误的样本,然后统计出错原因,集中精力改善出错多的原因。DL算法对于训练集中的随机标记错误比较鲁棒。当训练集和测试集不同分布时,比如现有训练集200k, 实际应用数据集有10k, 则应把10k分成两部分,一部分给训练集,剩余给验证集和测试集。训练集205k, 验证集2.5k,测试集2.5k。如何解决数据不匹配问题人工进行误差分析,理解训练集...原创 2020-02-19 17:20:45 · 92 阅读 · 0 评论 -
structuring ML projection —— 第一周
正交化正交化表示系统各个部分成90度,即改变一个部分时不会连带改变另一部分。单实数评估指标用F1score 代替 precision 和 recall. 更方便评估分类器好坏。3. 开发集和测试集要在同一分布,并且要先制定好目标,再收集数据集,防止中途改变目标后数据集变化。当数据集足够大时(100,000),验证集和验证集无需30%,验证集足够大到可以检测不同模型的表现,测试...原创 2020-02-15 20:27:38 · 81 阅读 · 0 评论 -
Improving Deep Neural Network —— 第三周
超参数调试优先级原创 2020-01-26 19:31:19 · 120 阅读 · 0 评论 -
Improving Deep Neural Networks —— 第二周笔记
batch vs. mini-batchbatch指遍历完全部的数据集之后再进行梯度下降的方法,mini-batch是将数据集分成若干小的子集,分别进行梯度下降,这样可以提升速度。epoch表示遍历完一整个训练集,当使用batch梯度下降时,1个epoch只进行了1次梯度下降,当使用mini-batch时,1个epoch可以进行t次梯度下降。mini-batch size 的选择m...原创 2020-01-08 14:01:17 · 127 阅读 · 0 评论 -
Improving Deep Neural Networks——第一周笔记
开始学第二部分啦~训练集、验证集和测试集训练集用来训练神经网络;(学习)验证集用来调节超参数,并监控模型是否过拟合,可多次使用;(写作业)测试集用来评估模型的泛化能力,仅使用一次。(期末考试)参考大佬的博客,讲解的很明白 https://blog.csdn.net/kieven2008/article/details/81582591在传统学习中,数据集很少,通常可以划分为7/3...原创 2020-01-05 17:35:51 · 162 阅读 · 0 评论 -
Neural Network &Deep Learning ——第四周笔记
写代码之前检查网络各参数维度,可防止很多bug出现W[l], dW[l] : (n[l] * n[l-1])b[l], b[l] : (n[l] * 1)Z[l], A[l], dZ[l], dA[l] : (n[l] * m)为什么要使用深层神经网络因为很多时候用深层网络计算比用浅层网络计算容易得多,当隐藏层单元很少的深层网络转换为浅层网络来做时,比如只有一层隐藏层,那么隐藏层的单元...原创 2019-12-29 20:05:28 · 85 阅读 · 0 评论 -
Neural Network & Deep Learning——第三周笔记
2层神经网络输入层为第0层。w的维度为 当前层神经元数量×前一层神经元数量。神经网络的向量化(单样本)多样本向量化Z[1](3)[5]Z^{[1](3)}[5]Z[1](3)[5]表示第3个样本在第1层第5个神经元下求得的值。激活函数tanh(x)几乎总比sigmoid函数效果好,因为输出介于-1到1之间,平均值接近0,有类似数据中心化的效果,可以让下一层的学习...原创 2019-12-29 20:04:35 · 136 阅读 · 0 评论 -
Neural network& deep learning——第二周笔记
笔记输入图片的格式图片有三个通道,RGB,将图片作为input,要转换为一列向量,比如一个64 * 64大小的RGB图像,其输入x应为64 * 64 * 3维的列向量。X矩阵表示数据集,由m个训练数据x组成,X的维度为n * m,n表示x的维度,m表示数据个数。Y矩阵为标签矩阵,维度为1 * m。Logistic function y=sigmoid(wTx+b) \...原创 2019-12-18 15:13:41 · 115 阅读 · 0 评论 -
Neural Networks and Deep Learning 第一周 笔记及课后作业
笔记1.structured data v.s. unstructured data2. Why is deep learning take off?(流行)作业原创 2019-12-14 13:57:44 · 118 阅读 · 0 评论