深度学习基础----线性模型

线性回归

目的

试图学得一个线性模型以尽可能地预测实值输出标记(即学w,b)

形式/

向量形式

 

 

均方差MSE的推导

梯度下降法:

 

理解:

需要选择学习率,

是迭代求解,

特征数m很大时不影响

最小二乘法:

 

理解:

不需要选择学习率,

不是迭代求解:

特征数m很大时计算速度慢

 

感知机

抽象理解

 

权重

突触

偏置

阈值

激活函数

细胞体

 

分类模型

二分类线性模型

输入:特征向量

输出: 类别(+1, -1)

目标: 求超平面(能将训练数据集正负实例完全正确分开)

 

距离

点到线:

样本到超平面:

 

损失函数

正确分类:

错误分类:

目标: 使错误分类的样本到超平面的距离最小

感知机学习算法

输入:

  1. 训练数据集
  2. 学习率

输出:

  1. w,b
  2. 感知机模型f(x)=sign(wx+b)

过程:

  1. 初始化w和b, 通常是全0向量

(2)从训练集获取一个样本(x,y)

(3)如果y(wx+b)<=0, 按照梯度更新参数

(4)继续(2)直到没有样本被错误分类

感知机学习算法

假设:

算法执行了n(很多次)次才收敛, 参数的主部是增量. 即w变成ayx,

Gram本质:

x*x可以事先由gram矩阵,计算好, 只更新a即可.

过程:

  1. 初始化w和b, 通常是全零向量
  2. 从训练集获取一个样本(x,y)
  3. 如果y(axy*x+b)<=0, 则更新参数
  4. 继续(2)直到没有样本被错误分类

Gram减少运算量:

n是维数, N是样本个数

 

n过高时, 应选择对偶形式算法加速(原始算法主要是w和x的内积)

N很大时, 采用原始算法(对偶形式主要是输入实例之间的内积)

逻辑回归

逻辑回归的引入

将激活函数从感知机的”符号函数”替换成了, “sigmoid”函数, 即给出了隶属于各类别的概率

Logistic函数

 

 

二分类标签的后验概率

y=1

 

Y=0

 

交叉熵+梯度+参数更新

交叉熵:

 

梯度:

 

参数更新:

 

 

Softmax分类

argmax

如果使用某一类的参数(w, b)使得wx+b最大, 则结果分为该类

目标类别的条件概率

 

对比逻辑回归:

 

KL散度, 负对数似然

 

交叉熵+梯度下降

交叉熵:

 

梯度下降:

 

为什么逻辑回归用交叉熵损失而不用MSE?

答:  参数的更新公式中有激活函数, 如果接近0或1就会梯度消失陷入局部极小

 

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值