【Stanford机器学习笔记】1-Linear Regression with One Variable

这篇博客详细介绍了斯坦福大学机器学习课程中的单变量线性回归模型,包括模型表示、代价函数的概念及其直观理解,以及梯度下降法在寻找最优参数中的应用。通过解释代价函数的数学形式和梯度下降的原理,阐述了如何通过迭代更新参数以最小化误差,为线性回归模型的训练提供了基础。
摘要由CSDN通过智能技术生成

1. Model Representation

单变量线性回归即假设函数中 hθ(x) 只包含一个特征变量x,加上一个偏差值bias,即只包含两个参数 θ0 θ1

hθ(x)=θ0+θ1x
监督分类的基本流程是将训练样本输入学习算法,通过训练得到最优参数 Θ ,最后得到假设函数 h(x) ,然后用于回归预测。除了线性回归,还包括一些非线性回归,如指数、对数、多项式等。
这里写图片描述

2. Cost Function

代价函数J又叫误差平方函数,即所有样本的残差平方和。训练的目标是最小化代价函数,获取最优参数 Θ ,代价函数公式如下:

J(Θ)=12mi=1m(hθ(x(i))y(i))2
目标函数是:
min J(Θ)

这里写图片描述

备注:整个课程中,除特殊说明,m都是指训练样本(training examples)的个数,n都是指特征的个数(feature),即特征维数(feature dimension),i指的是第i个样本( ith exam

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值