2017.2.27

今天后半天都心里比较烦闷。周报被老师嫌写得不详细,要求写得更明白些。“你这样写只有我能看懂,换另一个人还能看懂吗?” 周报的范文是我旁边的准博士同学做的,写了十几页纸,是写自己一周内读的两篇文章的总结。我读文章一直是比较看重方法而不重视实验结果等部分,方法的难点在周报中写得透彻了,我以为老师会支持,哪知事与愿违。

今天读了一篇经典文章,文章中提出了OMP算法,思路简单明确,实现容易。

假设输入的字典为 Φ=[ϕ1,ϕ2,,ϕN] ϕiRd 。Measurement向量 vRN 。求解的是稀疏度为 m 的信号s,使得 Φs=v 。这个过程还包括“字典选取的过程”,也即统计学中的“模型选取”,即在 N 个元素中选取m个。

  1. 初始化残差 r0=v ,选取元素索引集 Λ0= t=1
  2. 寻找与残差相关性最大的字典元素: λt=argmaxj<rt1,ϕj>
  3. 更新字典: Φt=[Φt1,ϕλt] , Λt=[Λt1,λt]
  4. 求解Least square问题: xt=argminx||vΦtx||2
  5. 更新残差: rt=vΦtxt

文章采用了贪心的思想,每次选取一个与当前残差相关性最大的字典元素。这种方法思路很简单,文章后面给出了很多更严谨的证明。我知道字典学习的K-SVD算法也应用了OMP算法进行sparse-coding,明天打算看看这篇文章。

之前的实验成果马上就要使用了,所以后面又要做一些数据。整个过程还是让人比较疲劳的。

我知道,天性以及长时间的习惯,使我比较喜欢想到哪儿写到哪,“随意而安”。这不是科研这种严谨的工作所应该有的态度。

除了读一篇文章以外,我今天还做了几道简单的编程题,干了一大堆实验室杂活。到现在感觉十分疲劳,晚上也6点半多才吃的饭。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值