- 博客(7)
- 收藏
- 关注
原创 深度之眼_吴恩达深度学习_打卡学习_调试
理解训练/验证/测试集、偏差/方差、正则化以及梯度消失/梯度爆炸/梯度检验等基本的概念。需重点掌握为什么正则化可以减少过拟合,以及对梯度消失和梯度爆炸产生的原因和解决的方法。训练/验证/测试集,数据量在百万级以下,可以60/20/20,百万级,98/1/1就可以了。偏差/方差,偏差vias,方差variance,看实际的情况,可能既有偏差,又有方差。正则化:L2正则化,有la...
2019-05-29 11:13:31
221
原创 深度之眼_吴恩达深度学习_打卡学习_浅层神经网络
浅层神经网络,2层前向传播多个逻辑回归组合反向传播有2层,注意到这里是要从最后面传过来,所以要带,后面是对Z求导的意思,如果是g = tanh() ,则是(1 - A[1]^2)还有参数初始化时,需要考虑到的取值不能过大,因为过大,激活函数在过大的点梯度很小,会不好收敛...
2019-05-27 12:09:35
158
原创 深度之眼_吴恩达深度学习_打卡学习_逻辑回归
逻辑回归是一个二分类问题 (二分类与回归不同,所以代价函数也不一样,因为取值希望是0,1)函数:其中:,损失函数:计算图梯度下降法推导:有3个公式,有3个导数第1个:第2个:,a在前向计算时记得保留,在反向传播时很有用第3个:,注意到,这里参数更新与线性回归一样,都是(a-y)x。接下来是向量化:w是一列矩阵,X是矩阵,,每一列是一个样本...
2019-05-26 20:34:05
223
原创 深度之眼_吴恩达机器学习_打卡学习_多变量线性回归
打卡第二天多变量线性回归函数:简单来写的话代价函数:参数更新:具体某一个参数的更新,乘上某一个特征值特征缩放:min-max标准化:,u是均值,s是(max - min),标准化之后的数据是[0, 1]z-score标准化:, u是均值,是标准差,标准化之后的数据是均值为0,方差为1的标准正态分布可以拟合多项式其中=,=,=这样就...
2019-05-26 13:53:38
92
原创 深度之眼_机器学习实战_打卡学习_k-近邻算法
打卡第一天k-近邻算法目的:对一个新样本进行分类已知:一组数据集,并且已知他们的类别对新的样本,计算它的每一个特征值与训练集中数据的特征,选取前k个最近的数据,获取他们的标签值,认为他们最多的标签值就是新样本的标签值。k-近邻的核心:距离的测量方式,欧式距离难点:较难选取k值。注意到当样本各特征值较大的时候,需要对样本的特征值进行归一化。...
2019-05-25 19:50:35
254
原创 深度之眼_吴恩达机器学习_打卡学习_单变量线性回归
打卡第一天单变量线性回归模型模型是一个函数的意思,目的是为了得到这个函数函数的基本样式为了得到这个函数,需要确定。引入了代价函数代价函数,代价函数是要最小化已知条件,一组m个数据的训练集,代价函数最小时取得的就是我们的模型需要的参数参数采用梯度下降法,(批梯度下降法)梯度的公式,每次更新时计算的梯度,再乘上学习率,有点类似步长。直到收敛或达到迭代...
2019-05-25 14:32:12
210
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人