机器学习入门(四):常用优化算法-梯度下降法

本文介绍了机器学习中的凸函数概念,通过一元和多元函数的示例阐述了凸函数的特性。接着详细讲解了梯度下降法,包括其基本原理、超参数步长α的重要性以及如何选择合适的步长。还讨论了梯度下降法可能遇到的难点,如局部最小值问题,并提出了应对策略。
摘要由CSDN通过智能技术生成

凸函数

什么叫做凸函数?这个有一套严格的数学定义:某个向量空间的凸子集(区间)上的实值函数,如果在其定义域上的任意两点 ,有 f(tx + (1-t)y) <= tf(x) + (1-t)f(y),则称其为该区间上的凸函数

注意:此处说得凸函数对应英语中的 Convex Function。在有些数学教材中(例如同济大学高等数学教材),把这种函数称为指凹函数,而把 Concave Function 称为凸函数,与我们的定义正好相反。
另外,也有些教材会把凸定义为上凸,凹定义为下凸。如果遇到一定要搞清楚具体“凸函数”这个词指的是什么。

将这一定义用一元函数的形式,在二维坐标轴里表现出来,是这样的:


v2-9527a95a057bcfb3d6ea7132296e038e_b.jpg


直观的理解,就是二维空间中的一条曲线,有个“弯儿”冲下,那个弯儿里面的最低点,就是该函数在自变量取值区间内的最小值。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值