机器学习中的算法-线性回归算法原理推导

本文深入探讨了线性回归算法,包括其概述、优缺点、适用数据类型以及在有监督学习中的角色。通过数学分析,解释了如何确定权重参数和偏置参数,以最小化误差项,并介绍了似然函数在求解过程中的作用。最后,详细阐述了利用最小二乘法求解线性回归参数的方法。
摘要由CSDN通过智能技术生成
原创文章,如需转载请保留出处
本博客为唐宇迪老师python数据分析与机器学习实战课程学习笔记

一. 线性回归算法概述
线性回归(Linear Regression)是一种通过属性的线性组合来进行预测的线性模型,其目的是找到一条直线或者一个平面或者更高维的超平面,使得预测值与真实值之间的误差最小化。

优点:结果具有很好的可解释性(w直观表达了各属性在预测中的重要性),计算熵不复杂。
缺点:对非线性数据拟合不好
适用数据类型:数值型和标称型数据

标称型:一般在有限的数据中取,而且只存在‘是’和‘否’两种不同的结果(一般用于分类)
数值型:可以在无限的数据中取,而且数值比较具体化,例如4.02,6.23这种值(一般用于回归分析)

1.1 线性回归
在这里插入图片描述

  • 机器学习分有监督学习和无监督学习。
  • 有监督学习分回归和分类。
    回归:通过数据最终预测出一个值。
    分类:根据样本特征对样本进行类别判定的过程。

1.2 解释
如何找出一条线,能解释额度和工资、年龄之间关系
在这里插入图片描述
1.3 通过数学讨论

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值