机器学习数学基础- gradient descent算法(上)

本文探讨了为何掌握数学基础知识对于理解和应用机器学习至关重要,特别是在大数据分布式计算场景中。文章深入介绍了梯度(Gradient)、偏导数(Partial Derivative)和导数(Derivative)的概念,并阐述了它们在机器学习中的作用,尤其是如何应用于Gradient Descent算法来解决线性回归问题中的最优化问题。
摘要由CSDN通过智能技术生成

为什么要了解点数学基础

学习大数据分布式计算时多少会涉及到机器学习的算法,所以理解一些机器学习基础,有助于理解大数据分布式计算系统(例如spark)的设计。机器学习中一个常见的就是gradient descent算法,是线性回归问题的一个基础算法。gradient是数学概念。

Gradient

假设一个函数有n个自变量: f(x1,x2......xn) ,且每个x都是标量值,那么该函数的gradient就是一个n维的向量函数,每个component是f函数针对 xi 的partial derivative, f 的gradient反映的是f针对所有变量在各自维度的变化的敏感程度(以及正负相关性,即当自变量增加时, f 值是增加还是减小,下同。gradient所反映的正负相关性非常重要,是理解gradient descent算法的一个关键)的合集。f的gradient记为 f

Partial Derivative

partial derivative是derivative的一个延伸概念,是一个有n维变量的函数 f(x1,x2......xn) ,在假设其他变量值不变、仅有一个变量(假设为 xi )变化的情况下,f函数针对该变量的derivative,写为 f(xi) ,或者 fxi f(x1,x2......xn) xi 的partial derivative也是 xi 的函数,它反映的是 f 相对于xi的变化的敏感程度(以及正负相关性)。

Derivative

一个一维变量的函数 f(x) 的derivative,反映的是 f(x) x 的不同值的情况下,当x仅作无限小的变化时, f 值的变化与x的变化的比值,因此derivative反映的是 f(x) x 的不同值的情况下,f(x) x 的变化的敏感程度(以及正负相关性)。f(x)的derivative也是 x 的函数,写为f(x).

Gradient Descent算法

线性回归问题可以归结为求一个函数 f(x1,x2......xn) (x1,x2......xn) 的某一个具体的值,使得 f <script type="math/tex" id="MathJax-Element-32">f</script>有最小值。
如果把这个求解问题交给你,你能求出来吗?很难把,
而gradient descent算法则能解决这个问题。
……待续

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值