学习笔记:机器学习--1.3多变量的梯度下降法

本文深入探讨了机器学习中的多变量梯度下降法,涉及矩阵表示、特征缩放和均值归一化。介绍了如何将函数1.1.1、1.1.2和公式1.2.1扩展到多个自变量和参数,并解释了特征缩放和均值归一化以提高算法效率。
摘要由CSDN通过智能技术生成

这是机器学习的第一章第三节:Gradient descent for Multiple variables(多变量的梯度下降法)

在学习本节过程中,将会涉及到高等数学中矩阵的相关知识

通过这一节的学习将会了解:

一、第一节中函数1.1.1,函数1.1.2和第二节中公式1.2.1在多个自变量\(x\)与多个parameter \(\theta_i\)的情况下的具体计算方法;

二、Feature Scaling(特征缩放) 和 Mean normalization(均值归一化) 的相关使用知识。


一、首先解释\(x_j^{(i)},y_j^{(i)},\theta_j\)(此时我们不再使用\(x_i,y_i\),因为这时将会出现歧义)角标的含义,我们将其称为索引(index)。

我们还记得\(x\)表示的是自变量特征(features),那么:

superscript \((i)\)相当于第\(i\)组数据(包含一条数

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值