每日一得 11-03-16~11-03-20

11-03-06

今天主要看了关于

Fenchel's duality theorem

的一些内容,感觉这个理论其实很好理解 但是,式子一点都看不懂,有点头疼。

 

另外看了Locality-constrained Linear Coding for Image Classification的前面一部分,到生成CodeBook前把。那部分除了算法具体实现不是很清楚外,其他的都还可以理解。

基础不牢固啊!

不过框架上还是很清晰的,不过这个框架真的有前途么?

我更同意林倞老师的看法,确实这种非语义的图像分类识别是有其局限了

就这样吧

 

 

11-03-18

今天跟老师聊了一下,发现自己真的很不能表达自己的观点,对于AGM框架虽然了解,但是具体的实现却一塌糊涂。什么泰勒展开,各种范式。各种不会,有点难度呢,不过重温了一下Accelerated Grandient Method for Multi-Task Sparse Learning Problem 感觉这篇文章写得太简单了,上面我想要了解的东西都不在上面。

 

此外试了一下实地的K-L的效果,或许我对欧式距离的习惯,让我觉得那个表达非常的诡异,不过老师今天说的那个  logistics 归一效果还不错,但是不敢乱改代码了

数据归一化:log(1+exp(xi))/sum(log(1+exp(X)))

X={x1,x2...xn}

如果能验证KL 在AGM上的有效性的话,是不是就相当于新的创造了一种loss function 呢?虽然可能不成功 但是还是一定要试试

后面要看的东西就多了

一定要彻底理解AGM!

 

11-03-19

勿在浮沙筑高塔

真正体会到了这句话的难处。

开始看On Accelerated Proximal Gradient Methods for Convex-Concave Optimization 好吃力。

粗粗看完第一部分 

现在的问题

domP是什么意思?

Lipschitz continuous 

Bergman divergence

inf?

另外就是推导过程中的细节

明天要加油!不能浪费时间!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值