自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 吴恩达深度学习系列课程随记——Course4Week1

1.计算机视觉任务:图片分类/识别:图片是不是猫目标检测:图片中所有车的位置图片风格迁移:让一张图看起来像毕加索画的挑战:数据可能很大,如1k*1k的图片有300万维输入,如果有1000个隐藏单元,一层W会有30亿个参数因此,需要卷积2.边缘检测示例滑动窗口对位相乘,称为卷积运算,小的那个矩阵称为核或者过滤器图中这个过滤器,用来检测垂直边缘。将它反转一下...

2019-11-17 21:09:33 326

原创 吴恩达深度学习系列课程随记——Course3Week2

1.进行误差分析第一,你应该找一组错误样本第二,观察错误标记的样本,假阳性(false positives)和假阴性(false negatives)第三,统计属于不同错误类型的错误数量,比如把狗分成猫,把狮子分成猫,太模糊分错了这样你可以发现解决问题的方向,但注意选择首要的方向不能只看错误占比,要考虑解决问题的代价。2.清除标注错误的数据训练集标注错了:如果是少量的...

2019-11-07 10:17:55 366

原创 吴恩达深度学习系列课程随记——Course3Week1

1.为什么是ML策略当你训练你的网络,你可能觉得它不够好而换算法、改架构、加数据等。但如果你方向不对,很可能会浪费几个月的时间,这一代价在有的时候是不可承受的。因此我们需要一些经验和指引。2.正交化以控制小车为例,一个控制器控制旋转角,一个控制器控制加速,他们互不相干(夹角90度),使得你可以调整一个功能的时候不影响另一个功能。体现在学习中,你或许发现你的模型在训练/开发/...

2019-11-06 20:05:48 269

原创 吴恩达深度学习系列课程随记——Course2Week3

1.调试处理调试什么:学习率α是最重要的、最需要调节的超参数;其次是Momentum的β、隐藏单元和batchsize;应用Adam算法时,一般不调节他的几个参数。如何调试:早期使用网格图枚举超参数组合,但不同超参数的重要性不同,并不应该如此枚举。我们可以随机选择点来测试。策略:从粗糙到精细,即依据好结果出现的位置不断缩小搜索范围2.为超参数选择合适的范围层数、每层单...

2019-11-05 16:36:41 264

原创 吴恩达深度学习系列课程随记——Course2Week2

1.Mini-batch梯度下降回顾梯度下降:每一轮都要处理全部样本,样本量太大的话,即使进行了向量化,运行也十分缓慢使用Mini-batch梯度下降:将X、Y分成t个小批(batch),分别执行梯度下降。每一个batch执行完都更新W和b,这样一次遍历全部样本后更新了t次W和b而不是一次,这称为一代(epoch)运算。当然我们可以通过循环增加代数来继续运算直到满足要求。2.理...

2019-11-01 20:11:13 261

原创 吴恩达深度学习系列课程随记——Course2Week1

1.训练、验证、测试集训练集:用来训练验证集:用来找出最好模型测试集:无偏评估算法的运行状态(没有也不要紧)小数据时代:70%训练30%测试/60%训练20%训练20%测试大数据时代:99%(或者更多)训练1%验证%1%测试尽量保证验证集和测试集来自同一分布(网页抓取:牺牲了这一点来获取大量数据)没有测试集:这时验证集常常被称作测试集2.偏差、方差两者的平衡...

2019-10-30 20:33:19 322

原创 吴恩达深度学习系列课程随记——Course1

1.基本神经网络:Logistic回归与梯度下降相关定义:梯度下降:推导获得所需偏导数:那么可以得到:类似地:又:则:同理:2.深层神经网络类似此前的推导,这里直接给出用课程中符号表示的前向和反向传播过程:前向传播:反向传播:注意两传播过程中公用的量W和A,我们可以在前向...

2019-10-29 16:50:13 216

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除