![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
whuissyxa
这个作者很懒,什么都没留下…
展开
-
深度学习基础知识——吴恩达深度学习视频笔记一
1.神经网络基础: 1.1深度学习和神经网络之间的关系:神经网络有很多层,当层数比较多(也就是神经网络比较深)的时候,就变成了深度学习。 1.2神经网络大致原理:通过一层层的神经元(每个神经元计算都是近似线性计算,y = w * x + b),一段段线性,来拟合一些映射,从而根据特征X预测出y。有输入层、隐藏层和输出层。 1.3深度学习的优势:以前机器学习模型性能,随着数据量增大会提高,但是...原创 2019-05-29 09:17:18 · 236 阅读 · 0 评论 -
神经网络的一些优化原理——吴恩达深度学习视频笔记二
1.归一化输入:将训练集、验证集和测试集放在一起进行,避免出现数据不匹配问题。 1.1 logistic回归的归一化:去均值:x -= μ 归一化方差:x /= 方差 1.2 batch归一化:神经网络中,当前层的输出将会成为下一层的输入,所以可以考虑对当前层的输出进行归一化(发生在调用激活函数之前,即 z = w * x + b)。归一化之后符合标准正态分布,如果希望归一化后可以有不...原创 2019-05-27 17:07:03 · 334 阅读 · 0 评论 -
神经网络的训练技巧——吴恩达深度学习视频笔记三
1.随机初始化参数(w和b):根据对称性原理,如果不随机初始化,一层神经网络几个神经元进行计算都是一样的,无论训练多长时间。所以需要随机初始化,一般初始化的w值比较小,因为对于sigmod,tanh这样的激活函数,一开始值太大,会导致收敛速度很慢。 1.1梯度爆炸与梯度消失:神经网络输出值与w存在指数关系。W > 1时梯度会以指数关系上升;w < 1时以指数关系下降。 1.2神经网...原创 2019-05-27 17:07:29 · 289 阅读 · 0 评论 -
卷积神经网络——吴恩达深度学习视频笔记四
1.卷积:一个f * f(通常是奇数,便于实现same卷积,而且有卷积中心)的滤波器(也称作“核”),作为系数与图像数字相乘,每次移动步长s,得到新的(n-f+2ps+1) * (n-f+2ps+1) (向下取整)图像(p为padding数量,填充,是为了不忽略图像边缘,也防止图像一直变小,在图像边缘填充的0)。这个过程是卷积运算。 1.1边缘检测:以水平检测为例:可以使用这样的滤波器[-1-...原创 2019-05-27 17:08:43 · 265 阅读 · 0 评论