![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
deep learning笔记
文章平均质量分 74
昌李
这个作者很懒,什么都没留下…
展开
-
introduction to deep learning--week2
多层感知器(MLP)逻辑回归:逻辑回归拥有向东的决策函数,但是分类做出了不同的决策,通过S函数能够把任何的值转化到0-1之间的范围内,因此s函数可以输出有效的概率。对于复杂的问题,单个逻辑回归不能很好的做出分类,如下图例子,需要三个不同的边界线共同进行分类。在这个过程中我们把x_1,x_2两个点的特征,转化成为z_1,z_2,z_3三个特征,我们相信这三个特征能够很好的适合当前的分类任...原创 2020-04-07 00:30:33 · 182 阅读 · 0 评论 -
introduction to deep learning--week1简单线性回归、梯度下降、模型正则化、和深度学习中的优化方法
进阶课程需要一些基础知识:1、机器学习基础知识2、概率论知识3、线性代数和微积分4、python编程我们需要知道的机器学习基础知识:1、线性回归:均方误差(MSE)、解析解2、逻辑回归:模型、交叉熵损失、类概率估计3、线性模型的梯度下降、均方误差(MSE)和交叉熵的求导4、过拟合问题5、线性模型的正则化一、线性回归模型(linear model)...原创 2019-12-26 16:30:35 · 327 阅读 · 0 评论 -
神经网络
逻辑回归是最简单的神经网络,一步一步可以通过以下步骤来实现。以下内容的更有利于了解整个神经网络单元是如何工作的,类似的原来讲更有利于逐步学习搭建越来越原创 2019-06-16 21:32:51 · 205 阅读 · 0 评论 -
sequence models
RNN(recurrent neural network)RNN中的输入和输出的表示符号:字典:其实就是将你要用到的单词放到一起做一个清单,一般商业应用的字典词汇可能包括3-5万,甚至10万以上的词汇,一些大型的商业应用有可能使用超过100万词汇的字典。如果不在字典中的词汇,标记为unknown单词tx表示x中第t个序列输入值,使用01 onehot编码,在字典相应位置的单词则为1...原创 2019-06-08 21:50:35 · 630 阅读 · 0 评论 -
Convolutional Neural Networks--卷积神经网络(第三周)目标检测
目标监测-YoLo算法原创 2019-05-12 20:43:02 · 244 阅读 · 0 评论 -
Convolutional Neural Networks--卷积神经网络(第二周)
经典的卷积神经网络:Lenet-5、Alexnet、VGGnet、InceptionNetwork等以及迁移学习原创 2019-05-11 21:43:16 · 252 阅读 · 0 评论 -
Convolutional Neural Networks--卷积神经网络(第四周)
人脸识别:人脸识别包括人脸校验和人脸识别。人脸校验:如果输入某个人的照片以及名字或ID系统的任务是校验输入的照片是否是他自称的那个人 ,因此这也经常被称作一一对应问题,你只需要知道这个人是不是他自称的那个人。人脸识别:是对有K人的数据库,对输入图片判断输出是否为数据库中K个人中的一个,或者不能识别。同样准确率的容忍度,人脸识别会因为数据库中人数而放大,对于人脸识别系统中的校验要求更高...原创 2019-05-14 09:40:02 · 236 阅读 · 0 评论 -
Convolutional Neural Networks--卷积神经网络(第一周)
卷积神经网络基本构成原创 2019-05-06 00:30:05 · 269 阅读 · 0 评论 -
Structuring Machine Learning Projects
调参策略原创 2019-04-29 23:23:40 · 254 阅读 · 0 评论 -
Improving Deep Neural Networks: Hyperparameter tuning, Regularization and Optimization--笔记(第一周)
1、深度学习如何划分数据集第一点:传统的机器学习划分数据集的方法是把数据集划分为70%训练集,30%测试集。或者是60%训练集,20%交叉验证集,20%的测试集,这在很长一段时间内被验证是最佳的分类方法。这样划分是为了验证算法的泛化能力和算法的效果,但是如果训练集非常非常巨大,在训练集上性能表现很好,虽然降低交叉验证集和测试集的比例,但是也可以很好的有很好的表现。第二点:训练集和测试集要同...原创 2019-04-20 04:48:28 · 248 阅读 · 0 评论 -
Improving Deep Neural Networks: Hyperparameter tuning, Regularization and Optimization-(第三周)
系统化对参数调优的技巧超参数重要程度排序:1、学习率α2、动量项β、mini batch size、隐藏层的单元数hidden unit3、网络层数layers、学习率衰减4、Adam的参数一般取默认值,β1=0.9、β2=0.999、epsilon=1*10^-8在早期机器学习中,如果有两个参数,在有限的范围内调参,可以使用梯度搜索法,系统的尝试所有点,逐个尝试搜索参...原创 2019-04-27 10:06:18 · 164 阅读 · 0 评论 -
Improving Deep Neural Networks: Hyperparameter tuning, Regularization and Optimization--笔记(第二周)
加快神经网络训练速度的参数原创 2019-04-21 21:37:40 · 238 阅读 · 0 评论