我的深度学习小记录 (1)线性问题+基础优化算法

线性问题:

线性回归模型是深度学习中较为简单的一种模型\frac{TP}{P}也是最简单的神经网络(可看作单层神经网络)是一种有监督学习。找出特征矩阵与权值矩阵,通过加权和,设置偏置值,在预测问题中具有广泛的应用场景。

假设预测结果用\hat{y}来表示,特征矩阵用x来表示,权值矩阵用w来表示,则预测结果可表示如下:

\hat{y}= \textbf{w}^{T}\textbf{x}+b

由于我们很难找到一个样本使观测值很好地拟合每一个样本数据,所以我们需要寻找最好的模型参数,以期得到一个预测结果较好的模型。我们需要(1)一个能良好度量模型的工具(2)一种能更够更新模型,获得良好拟合效果的函数。

度量模型的工具:

MAE(Mean Absolute Error)平均绝对误差,越趋近于0,表示拟合程度越好。

MAE=\frac{1}m{}\sum_{i=1}^{m}|y_{i}-\hat{y}|

MSE(即所谓的方差)

MSE=\frac{1}{m}\sum_{i=1}^{m}(y_{i}-\hat{y})^2

R^2取值范围为[0,1],值越接近1表示越拟合训练数据,RSS表示预测值和真实值之间的差异情况,TSS表示样本之间的差异情况。

R^2=1-\frac{RSS}{TSS}=1-\frac{\sum_{i=1}^{m}(y_i-\hat{y})}{\sum_{i=1}^{m}(y_i-\bar{y})}

模型性能的评估:

1.准确率:\frac{TP+TN}{P+N}

2.查全率:\frac{TP}{P}

3.查准率:\frac{TP}{TP+FP}

线性回归的解可以用一个公式表示,这种解叫做解析解。解析解便于我们进行分析,但并不是所有的问题都有解析解。

基础优化算法:梯度下降法

挑选一个初始值w_0,t=0,1,2...反复迭代

W_t=W_{t-1}-\eta \frac{\partial{l} }{\partial{W_{t-1}}}

\bullet沿着梯度方向将增加损失函数的值,通常将凹函数变为凸函数。

\bullet\eta(学习率):步长的超参数

选择学习率时,不能太大,也不能太小。

如果太大,难以搜索到最优值;如果太小,浪费计算资源。

分为:随机梯度下降,小批量梯度下降,全局梯度下降。

Summary:

1.梯度下降不断通过沿着反梯度方向更新参数

2.通常,小批量梯度下降是深度学习默认的求解算法

3.两个重要的超参数是学习率和批量大小

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

数字漫游者

力图简洁c++,创作不易,谢谢

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值