自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 深度之眼_吴恩达深度学习_打卡学习_调试

理解训练/验证/测试集、偏差/方差、正则化以及梯度消失/梯度爆炸/梯度检验等基本的概念。需重点掌握为什么正则化可以减少过拟合,以及对梯度消失和梯度爆炸产生的原因和解决的方法。训练/验证/测试集,数据量在百万级以下,可以60/20/20,百万级,98/1/1就可以了。偏差/方差,偏差vias,方差variance,看实际的情况,可能既有偏差,又有方差。正则化:L2正则化,有la...

2019-05-29 11:13:31 221

原创 深度之眼_吴恩达深度学习_打卡学习_深层神经网络

深层神经网络可以分块来计算前向传播时,记得存储下对应的值。反向传播更新

2019-05-27 20:22:13 535

原创 深度之眼_吴恩达深度学习_打卡学习_浅层神经网络

浅层神经网络,2层前向传播多个逻辑回归组合反向传播有2层,注意到这里是要从最后面传过来,所以要带,后面是对Z求导的意思,如果是g = tanh() ,则是(1 - A[1]^2)还有参数初始化时,需要考虑到的取值不能过大,因为过大,激活函数在过大的点梯度很小,会不好收敛...

2019-05-27 12:09:35 158

原创 深度之眼_吴恩达深度学习_打卡学习_逻辑回归

逻辑回归是一个二分类问题 (二分类与回归不同,所以代价函数也不一样,因为取值希望是0,1)函数:其中:,损失函数:计算图梯度下降法推导:有3个公式,有3个导数第1个:第2个:,a在前向计算时记得保留,在反向传播时很有用第3个:,注意到,这里参数更新与线性回归一样,都是(a-y)x。接下来是向量化:w是一列矩阵,X是矩阵,,每一列是一个样本...

2019-05-26 20:34:05 223

原创 深度之眼_吴恩达机器学习_打卡学习_多变量线性回归

打卡第二天多变量线性回归函数:简单来写的话代价函数:参数更新:具体某一个参数的更新,乘上某一个特征值特征缩放:min-max标准化:,u是均值,s是(max - min),标准化之后的数据是[0, 1]z-score标准化:, u是均值,是标准差,标准化之后的数据是均值为0,方差为1的标准正态分布可以拟合多项式其中=,=,=这样就...

2019-05-26 13:53:38 92

原创 深度之眼_机器学习实战_打卡学习_k-近邻算法

打卡第一天k-近邻算法目的:对一个新样本进行分类已知:一组数据集,并且已知他们的类别对新的样本,计算它的每一个特征值与训练集中数据的特征,选取前k个最近的数据,获取他们的标签值,认为他们最多的标签值就是新样本的标签值。k-近邻的核心:距离的测量方式,欧式距离难点:较难选取k值。注意到当样本各特征值较大的时候,需要对样本的特征值进行归一化。...

2019-05-25 19:50:35 254

原创 深度之眼_吴恩达机器学习_打卡学习_单变量线性回归

打卡第一天单变量线性回归模型模型是一个函数的意思,目的是为了得到这个函数函数的基本样式为了得到这个函数,需要确定。引入了代价函数代价函数,代价函数是要最小化已知条件,一组m个数据的训练集,代价函数最小时取得的就是我们的模型需要的参数参数采用梯度下降法,(批梯度下降法)梯度的公式,每次更新时计算的梯度,再乘上学习率,有点类似步长。直到收敛或达到迭代...

2019-05-25 14:32:12 210 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除