机器学习笔记

摘自:PDF版学习笔记 - JerryLead - 博客园

21.10.13       

        机器学习有两种,一种是监督学习,另一种是非监督学习。监督学习就是我告诉计算机你把班上同学分个类,分类标准是按照性别,男生和女生;非监督分类就是告诉计算机你自己去把班上同学分个类吧,我不告诉你分类标准。

        在监督学习中,预测的变量是连续的用回归方法,是离散的用分类方法。

学习过程:

线性回归:

        线性回归假设特征和结果满足线性关系。当每个特征变量先映射到一个函数,在进行线性计算,就可以表达特征和结果之间的非线性关系。

        现有估计函数:,向量表示为

x1,x2..为特征分量,θ为参数。

        使用损失函数(或称为错误函数)来评估上面估计函数的好坏,即是评估θ,称为J函数。

 ,minJ(θ)

        选择平方和作为损失函数有其概率论解释。不同的损失函数运用于不同的算法中。

        调整θ,使得J(θ)最小,有最小二乘法和梯度下降法。

梯度下降法:

        梯度下降算法原理讲解——机器学习_Arrow and Bullet-CSDN博客_梯度下降法

        梯度下降法最大的问题是求得有可能是全局极小值,这与初始点的选取有关。

        步骤:

        1)首先对 θ 赋值,这个值可以是随机的,也可以让 θ 是一个全零的向量。
        2)改变 θ 的值,使得 J(θ)按梯度下降的方向进行减少。

        θ的更新:,α是学习率。
        迭代更新的方式有两种,一种是批梯度下降,也就是对全部的训练数据求得误差后再对 θ
进行更新,另外一种是增量梯度下降,每扫描一步都要对 θ 进行更新。 前一种方法能够不断
收敛,后一种方法结果可能不断在收敛处徘徊。

最小二乘法:

        线性回归原理及实现(一):最小二乘法_玉米味土豆片-CSDN博客_线性回归最小二乘法

        解方程组,直接求出θ的最优解。

        通过                        

        求出正规方程:     

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值