11-03-06
今天主要看了关于
Fenchel's duality theorem
的一些内容,感觉这个理论其实很好理解 但是,式子一点都看不懂,有点头疼。
另外看了Locality-constrained Linear Coding for Image Classification的前面一部分,到生成CodeBook前把。那部分除了算法具体实现不是很清楚外,其他的都还可以理解。
基础不牢固啊!
不过框架上还是很清晰的,不过这个框架真的有前途么?
我更同意林倞老师的看法,确实这种非语义的图像分类识别是有其局限了
就这样吧
11-03-18
今天跟老师聊了一下,发现自己真的很不能表达自己的观点,对于AGM框架虽然了解,但是具体的实现却一塌糊涂。什么泰勒展开,各种范式。各种不会,有点难度呢,不过重温了一下Accelerated Grandient Method for Multi-Task Sparse Learning Problem 感觉这篇文章写得太简单了,上面我想要了解的东西都不在上面。
此外试了一下实地的K-L的效果,或许我对欧式距离的习惯,让我觉得那个表达非常的诡异,不过老师今天说的那个 logistics 归一效果还不错,但是不敢乱改代码了
数据归一化:log(1+exp(xi))/sum(log(1+exp(X)))
X={x1,x2...xn}
如果能验证KL 在AGM上的有效性的话,是不是就相当于新的创造了一种loss function 呢?虽然可能不成功 但是还是一定要试试
后面要看的东西就多了
一定要彻底理解AGM!
11-03-19
勿在浮沙筑高塔
真正体会到了这句话的难处。
开始看On Accelerated Proximal Gradient Methods for Convex-Concave Optimization 好吃力。
粗粗看完第一部分
现在的问题
domP是什么意思?
Lipschitz continuous
Bergman divergence
inf?
另外就是推导过程中的细节
明天要加油!不能浪费时间!