课程7
讲述了三种不同的 BCGD 块坐标梯度下降法 block coordinate gradient descent
首先是BCGD with Gauss-Southwell Rule
参考:https://kns.cnki.net/kcms/detail/detail.aspx?dbcode=CJFD&dbname=CJFD8589&filename=GXKZ198502004&uniplatform=NZKPT&v=kAy_09s4xduVf2tCPLg1XCMMO5-eeeZIHGpwk-YnmbfxKz9bzI7rCnCh0pPeu7UL
对于稀疏结果的优化问题,Gauss-Southwell坐标轴选择是非常有效率的。
然后是随机块坐标轴梯度下降法
本来是随机选取坐标轴的,现在为了improve the rate,可以改进步长:步长更大些7P21;还可以改变选取坐标轴规则,不是等概率随机选择的,而是由更大莱布尼兹常数的坐标轴更容易被选择7P21。
最后是循环块坐标轴梯度下降法
循环是指每个坐标轴都过一边,求对x进行一次更新,最后更新完的x就是最终的这一步迭代的x
它是确定性算法
?什么是确定性算法? -若对于一个算法,给定当前状态和输入,若该算法只有一个动作可供选择,那么该算法是确定选择。
但是收敛速度比其他块坐标轴梯度下降速度更慢