回归--理论

目录

线性回归

假设具有三个性质:内涵性,简化性,发散性。

正则化与稀疏

机器学习与数据使用

Moore-Penrose广义逆矩阵(伪逆)

梯度下降算法

折中:mini-batch


 

 

 

 

 

函数的输出可以是一个连续的值(称为回归),或是输出是有限个离散值(称作分类)。

线性回归

如何确定k,b ?

为截距,x,y为给定的样本,这个模型其实就是线性回归的模型,用这个模型和样本确定θ1,θ2,θ0最佳的值,θ未知,x已知,公式:

第i个样本实际的值=预测值+误差值

实际问题中,很多随机现象可以看 众多因 的独立影响的综合反应,往往近似服从正 态分布。
城市耗电量:大量用户的 耗电 总和
测量误差:许多观察不到 的、 小误 的总和

注:应用前提是多变量些问题 是乘性差,则要鉴别者取对后再使

机器学习中的建模过程,往往充斥着假设, 合理的假设是合理模型的必要前提。

假设具有三个性质:内涵性,简化性,发散性。

所谓假设,就是根常理应该是正确的。如假定一个人的身高位于[150cm,220cm], 这能够使得大多数情况是对,但显然有 些篮球运动员已经不属这个间。以,假 设的第一个性质:假设往是确的不一定 总是正确。我们可以称之为“假设的内涵”。

假设的简化性,假设只是接近,往往需要做若干简化。如,在自然语言处理中,往往使用词模型(Bag Of Words),认为一篇档的是独——这样的好处是计算该档的然概非常简 洁,只需要每个词出现率乘即可。但我们知道这个假设是错的:个文前一个 词是“正态”,则下一词极可能“分 布”,文档的词并非真独立。这个现象可以称之为“假设的化性

假设的发散性,在某个简化的假设下推导得到的结论,不一 定只有在假设成立时结论才成立。如,我们假定文本中的词是独的,过朴素 贝叶斯做分类(如垃圾的判)。我们发现:即使使用这样明显正确假设, 但它的分类效果往往在践中堪用。这个现象可以称之为“假设的散性

最小乘意下的数最

加入λ扰动后

正则与稀疏

 

机器习与据使用

Moore-Penrose广逆矩(伪逆)

SVD矩阵的广义逆

梯度降算法

批量度下算法

折中mini-batch

如果不是每拿到一个样本即更改梯度,而是 若干个样本的平均梯度作为更新方向,则是  mini-batch梯度下降算法。

线性归的一步

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值