(二)吴恩达-机器学习第二课学习心得-线性回归算法(Linear regression)

本文介绍了机器学习中的线性回归算法,包括训练集的概念、代价函数J(θ0, θ1)的定义及作用,重点讲解了梯度下降算法的原理和在线性回归中的应用。讨论了学习速率α的影响,以及梯度下降如何确保找到全局最优解。此外,还提到了批处理梯度下降方法。" 114564562,10537600,Java Web与Spark整合配置详解,"['Java Web开发', 'Spark框架', '日志管理', 'SpringBoot集成']
摘要由CSDN通过智能技术生成

1.线性回归算法(Linear regression)

在监督学习中我们有一个数据集,这个数据集被称为训练集(Training set)
在这里插入图片描述
m:训练样本的数目(有几组训练样本)
x’s:输入变量,特征量,用x表示输入的特征
y’s:输出变量或目标变量(预测结果)
(x,y):表示一个训练样本
(xi,yi):表第i个训练样本
h:表hypothesis(假设),表示一个函数

在这里插入图片描述
在这里插入图片描述

2.代价函数(Cost function)

在这里插入图片描述
θi :表模型参数
J(θ0, θ1)=1/2m∑(hθ(xi)-yi)2,∑范围从i=1到i=m
J(θ0, θ1)称平方误差函数(squad error function),有时也称为平方误差代价函数

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值