近端梯度下降

前些天发现了一个巨牛的人工智能学习网站,通俗易懂,风趣幽默,忍不住分享一下给大家:点击跳转

目录

1,求解目标

2,近端映射

3,近端梯度下降

4,实例

(1)常规梯度下降

(2)投影梯度下降

5,近端映射函数性质

(1)分量组合

(2)线性变换

(3)t变换

(4)四则运算

(5)共轭函数的近端映射函数

(6)省略写法说明

6,近端映射函数计算实例


1,求解目标

g 是凸函数,可微。
ℎ 是凸函数,未必可微。

我的理解:不是所有f都适用这个方法,h实际上只能取一些常见的简单的函数。

2,近端映射

3,近端梯度下降

4,实例

(1)常规梯度下降

结果就是常规梯度下降。

(2)投影梯度下降

5,近端映射函数性质

(1)分量组合

性质一:

 

(2)线性变换

性质二:

f(x)=g(ax+b)\rightarrow prox_{t,f}(x)=\frac{1}{a}(prox_{ta^2,g}(ax+b)-b)

 

性质三:

f(x)=ag(x)+b\rightarrow prox_{t,f}(x)=prox_{ta,g}(x)

PS:这里的a是标量

(3)t变换

根据性质三,取b=0可得性质四:

prox_{t,ag}(x)=prox_{ta,g}(x)

(4)四则运算

性质五:

f(x)=g(x)+a^Tx\rightarrow prox_{t,f}(x)=prox_{t,g}(x-ta)

例如,g(x)=x^2,f(x)=g(x)+x,a=1,t=2

那么,prox g (x) = x/5,  prox f (x) = (x-2)/5

性质六:

PS:这里的a是向量

(5)共轭函数的近端映射函数

g(y)=af(y)\rightarrow prox_{g^*}(y)=a \, prox_{a^{-1}f^*}(a^{-1}y)

推导:

 

(6)省略写法说明

省略方式一

由于t变换的优美:prox_{t,ag}(x)=prox_{ta,g}(x)

很多时候prox_{t,ag}(x)就简写成prox_{ag}(x)

如:prox_{g^*}(y)=a \, prox_{a^{-1}f^*}(a^{-1}y)

其实是prox_{t,g^*}(y)=a \, prox_{t,a^{-1}f^*}(a^{-1}y)=a \, prox_{t/a,f^*}(a^{-1}y)

省略方式二

而有时我们又用prox_{tg}(x)表示prox_{1,tg}(x)=prox_{t,g}(x)

这是2种截然不同的省略约定,在这个基础上去理解公式就没啥问题了。

6,近端映射函数计算实例

上面2个例子给出了2个很特殊的函数的近端映射函数,这里展开讲讲更多的例子。

(1)L1范数

f(x)=||x||_1\\prox_{tf}(x)=sign(x)max(|x|-t,0)

`sign`函数是一个数学和计算机科学中常用的函数,用于确定数字的符号。具体来说,如果数字大于0,则`sign`函数返回1;如果数字等于0,则返回0;如果数字小于0,则返回-1。

 (2)L2范数

 

(3)  二次函数

(4)分量对数求和函数

  • 7
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值