- 博客(5)
- 收藏
- 关注
原创 机器学习打卡第五天
网络设计的技巧一、局部最小值与鞍点(Local Minimum And Saddle Point)在做优化(Optimization)的时候,我们有时候会发现随着参数不断更新,训练的损失值不再下降,但这并不是我们想要的结果,出现梯度为0的情况有以下三种:1、local minima2、local maxima3、saddle point:梯度为零,不是local minima,也不是local maxima,像右下图的红点,它的左右这个方向是比较高的,前后这个方向是比较低的,就像是一个马鞍的
2022-05-25 21:32:45 133
原创 反向传播机制
深度学习的步骤Step1:神经网络神经网络(Neural network)里面的节点,类似我们的神经元。完全连接前馈神经网络输入层(Input Layer):1层隐藏层(Hidden Layer):N层输出层(Output Layer):1层为什么叫全链接呢?因为layer1与layer2之间两两都有连接,所以叫做Fully Connect;为什么叫前馈呢?因为现在传递的方向是由前往后传,所以叫做Feedforward。深度的理解2012 AlexNet:8层201
2022-05-22 21:54:53 127
原创 机器学习打卡第三天
误差average error随着模型的复杂度增加呈现指数上升趋势,更复杂的模型并不会给测试集带来更好的效果。误差的来源主要由偏差bias和方差variance组成f^与f*之间蓝色部分的误差就是偏差和方差导致的左下角的与右上角的可形成对比,说明bias主要影响平均值,即bias较大时,平均值与f^之间的差距也较大,而variance主要影响数据分布,即数据的方差,variance较大bias较小时时,数据较为分散但平均值与f^差距较小,同理两个值均较大时,数据不仅分散,并且平均值...
2022-05-20 21:42:43 76
原创 机器学习打卡第二天
回归定义regression就是找到一个函数function,通过输入特征x,输出一个数值scalar模型定义step1:模型假设,选择模型框架(线性模型)step2:模型评估,如何判断众多模型的好坏,采用损失函数step3:模型的优化,如何筛选最优的模型(梯度下降)step1:线性模型假设y=b+wXcpX:就是各种特征w:各个特征的权值b:偏移量step2:模型评估goodness of function将原始数据在二维图中展示,图中的每一个点对应着进化前和进
2022-05-18 23:47:03 158
原创 机器学习打卡第一天
机器学习相关的技术系统介绍了人工智能是什么,根据数据特性对人工智能技术进行了简单的分类介绍,其中包括有关于监督学习和无监督学习,版监督学习以及结构化学习的介绍...
2022-05-16 23:00:59 174
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人