【联邦学习】机器学习的函数和连续等基本概念

为什么机器学习当中将很多函数定义为凸性的?

凸集->凸函数->凸优化.

凸集
在这里插入图片描述
在这里插入图片描述
当可以取得等号时,则函数是凸函数但不是严格凸的。无法取得等号的时候,则说明是严格凸函数。
在这里插入图片描述

在这里插入图片描述

为什么机器学习当中将很多函数定义为凸性的?

凸函数斜率是正的,单调不减,而凹函数为负,斜率在减少,所以当逆着斜率方向的时候,只有在损失函数为凸函数的时候损失才会降低。
在这里插入图片描述

数学——Lipschitz连续

Lipschitz连续如何理解
定义:Lipschitz连续,要求函数图像的曲线上任意两点连线的斜率一致有界,就是任意的斜率都小于同一个常数,这个常数就是Lipschitz常数。
从局部看:我们可以取两个充分接近的点,如果这个时候斜率的极限存在的话,这个斜率的极限就是这个点的导数。也就是说函数可导,又是Lipschitz连续,那么导数有界。反过来,如果可导函数,导数有界,可以推出函数Lipschitz连续。
从整体看:Lipschitz连续要求函数在无限的区间上不能有超过线性的增长,所以这些函数在无限区间上不是Lipschitz连续的。

非凸优化基石:Lipschitz Condition
凸优化中strongly convex和L-smooth(此处可以简单考虑成 Gradient Lipschitz)有什么应用?
粗暴一点的看的话:感觉就像,一上一下,强迫你的目标函数长得像一个二次函数.

如果梯度是L-Lipschitz的,就有了一个二次函数的上界:
在这里插入图片描述

如果是 [公式] -strongly convex的,就有了一个二次函数的下界:
在这里插入图片描述
在这里插入图片描述
由于被迫长成一个二次函数的样子,于是很多算法在 [公式] -strongly convex + Gradient L-Lipschiz下都有比较好的表现。

函数平滑smooth

平滑的定义是:
在这里插入图片描述
这个函数被称为β-smooth,实质上这个性质以看就与梯度有关。为什么定义这个概念呢?
实际上,在优化算法求解的过程当中,函数的梯度理论上会逐渐趋于0,因此,我们通过平滑这个概念就可以看出函数梯度的变化程度。

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值