线性回归和softmax回归

一、线性回归

1.基本概念:线性回归是一种基本的预测型分析,它试图通过找到一个最佳拟合线(或平面)来预测一个连续型变量(例如销售额、温度等)和一个或多个预测变量(例如时间、广告投入等)之间的关系。线性回归试图找到一个模型,使得预测变量和实际变量之间的误差平方和最小。

2.线性回归的基本公式是:Y = aX + b,其中Y是我们要预测的连续型变量,X是预测变量,a和b是模型参数,需要我们通过计算来找到。

3.线性回归有很多应用,例如预测销售额、预测股票价格等。同时,线性回归也是很多更复杂的统计模型的基础,例如逻辑回归、多元回归等。

4.损失函数:衡量预估质量 损失函数能够量化目标的实际值与预测值之间的差距,例如房屋售价和估价。 回归问题最常用的损失函数是平方损失。训练损失的目标为:最小化损失从而确定参数。

5.训练数据:训练数据集越大越好。

6.梯度算法:神经网络在学习时找到最优的参数(权重和偏置)——指损失函数取最小值时的参数。我们不知道他在何处能取得最小值,所以使用梯度来寻找函数的最小值的方法就是梯度法。

7.梯度算法流程:在梯度法中,函数的取值从当前位置沿着梯度方向前进一定的距离,然后在新的方向重新求梯度,再沿着新梯度的方向前进,如此反复,不断的沿梯度方向前进。

8.选择批量值:

批量值不能太小:批量值太小,难以充分利用计算资源。

批量值不能太大:批量值太大,浪费计算资源。

小批量随机梯度下降是深度学习默认的求解算法,两个重要的超参数是批量大小学习率

二、Softmax回归

1.回归:单个连续数值输出、自然区间、与真实值的区别作为损失。

2.独热编码:对类别进行一位有效编码 类别对应的分量设置为1,其他所有分量设置为0。

3.一个单层神经网络; 由于计算每个输出o1,o2,o3取决于所有输入x1、x2、x3和x4,因此softmax回归层也是全连接层。

4.Softmax运算

5.Softmax回归是一个多类分类模型,使用Softmax操作得到每个类的预测置信度。

6.损失函数

平方损失(L2损失)、L1损失、Huber损失、交叉熵损失(通常用于比较概率分布)。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值