自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Wenfei Wang的专栏

撸起袖子加油干,卯足干劲向前冲。

  • 博客(30)
  • 收藏
  • 关注

原创 压缩感知通俗解释

压缩感知从字面上看起来,好像是数据压缩的意思,而实则出于完全不同的考虑。经典的数据压缩技术,无论是音频压缩(例如 mp3),图像压缩(例如 jpeg),视频压缩(mpeg),还是一般的编码压缩(zip),都是从数据本身的特性出发,寻找并剔除数据中隐含的冗余度,从而达到压缩的目的。这样的压缩有两个特点:第一、它是发生在数据已经被完整采集到之后;第二、它本身需要复杂的算法来完成。相较而言,解码过程反而

2017-01-09 15:28:11 1519

原创 l0-Norm, l1-Norm, l2-Norm, … , l-infinity Norm

I’m working on things related to norm a lot lately and it is time to talk about it. In this post we are going to discuss about a whole family of norm.What is a norm?Mathematically a norm is a tota

2017-01-23 18:18:55 3877

原创 Why L1 norm for sparse models?

Explanation 1Consider the vector x⃗ =(1,ε)∈R2 where ε>0 is small. The l1 and l2 norms of x⃗ , respectively, are given by||x⃗ ||1=1+ε,  ||x⃗ ||22=1+ε2Now say that, as part of

2017-01-23 17:40:16 732

原创 Why is L1 regularization supposed to lead to sparsity than L2?

Just because of its geometric shape: Here is some intentionally non-rigorous intuition: suppose you have a linear systemAx=b for which you know there exists a sparse solution x∗, and that

2017-01-23 15:58:21 651

原创 Differences between L1 and L2 as Loss Function and Regularization

While practicing machine learning, you may have come upon a choice of the mysterious L1 vs L2. Usually the two decisions are :1) L1-norm vs L2-norm loss function;2) L1-regularization vs L2

2017-01-23 15:54:47 1202

转载 如何发表顶级期刊论文

原文链接:http://blog.csdn.net/zhoutongchi/article/details/8257675吴信东 博士(美国佛蒙特大学计算机科学系正教授和系主任, TKDE 等多种国际著名学术杂志的主编和编委)最重要的九点:1 、技术贡献、证据2 、切忌打击面太广、针对的问题多,切入点不能超过 2 个3 、知道你的敌人是谁4 、选题5 、实验

2017-01-22 20:47:06 1517

转载 矩阵特征值分解与奇异值分解(SVD)含义解析及应用

原文链接:http://blog.csdn.net/xiahouzuoxin/article/details/41118351特征值与特征向量的几何意义矩阵的乘法是什么,别只告诉我只是“前一个矩阵的行乘以后一个矩阵的列”,还会一点的可能还会说“前一个矩阵的列数等于后一个矩阵的行数才能相乘”,然而,这里却会和你说——那都是表象。矩阵乘法真正的含义是变换,我们学

2017-01-22 18:41:42 12297 2

原创 问题追踪

1、现有文献中信号X都是做为离散信号处理的,Y=ΦX完成压缩采样,如果是模拟信号怎么办呢?就是说还得要先用Shannon-Nyquist定理指导AD采样得到N维的信号X再压缩观测得到M维的Y意义何在呢?相当于说高成本的ADC已经使用,然后在接收端还得经过复杂的重建算法,好折腾的感觉,这和压缩感知的初衷就背离了吧(采样的同时完成压缩)?

2017-01-22 11:48:20 370

转载 压缩感知与Nquist抽样定理——模拟信息转换(AIC)学习总结

原文链接:http://blog.csdn.net/jbb0523/article/details/41595535一、引言压缩感知(CompressiveSensing, or Compressed Sensing)或译为压缩传感,或者称为压缩采样(Compressive sampling),以下统称压缩感知,简称CS。在压缩感知的有关文献中几乎都在说“压缩感知突破了传统的N

2017-01-22 11:47:26 935

转载 MATLAB工具箱下载地址总汇

原文链接:http://blog.csdn.net/tainyiliusha/article/details/101378191.平面操作工具箱http://cathy.ijs.si/~leon/planman.html2.SimMechanics 工具箱 (这个好像不是免费的)http://www.mathworks.com/access/helpde

2017-01-16 17:12:21 24970

转载 信号处理和模式识别方面的MATLAB工具箱

原文链接:http://blog.csdn.net/datoubo/article/details/8579862信号处理和模式识别方面的 matlab toolbox如果你做wavelet,ica,pca,svm,kernel等方法,希望下面的工具对你有帮助。Signal Processing (Top)Filter Design with Motorol

2017-01-16 17:10:20 3045

转载 再调侃稀疏重建

原文链接:http://to-cs.blog.sohu.com/138250047.html说起稀疏重建,就不得不说“稀疏”的度量。事实上,它的根植土壤极其的肥沃。直白来说,稀疏就是广袤无垠沙漠上({x: Ax=b})的若干匹骆驼(min|x|_1,s.t. Ax=b),当然,如果开心,你可以用其它的比喻来描述。那么,“稀疏重建”就是有勇气走进沙漠,把这些骆驼找出来。事实上,工程人员更喜欢

2017-01-14 23:10:06 2809

转载 科技论文写作经验之谈

原文出处:http://bbs.sciencenet.cn/forum.php?mod=viewthread&tid=204046这是一个一年三篇IF大于7的牛人当我问到他怎么这么强的时候,他给我他在网上总结发文章的秘笈。看了实在是心中有一种感觉,特奉献出来一、研究生必备四本俗话说好记性不如烂笔头,所以一定要首先养成做笔记的好习惯!作为研究生下面这几个本子是必不可少

2017-01-14 18:34:11 1157

原创 英语学术论文常用句型

Beginning1. In this paper, we focus on the need for2. This paper proceeds as follow.3. The structure of the paper is as follows.4. In this paper, we shall first briefly introduce fuzzy sets an

2017-01-14 18:28:53 3458

转载 压缩感知和稀疏信号处理课程笔记(陆吾生)

原文链接:http://blog.csdn.net/chulefei/article/details/51251916一、The Shannon-Nyquist Sampling Theorem问题:原始数据是连续函数,是否能用有限个采样百分之百重现原始数据?香农回答了这个问题:如果原始数据中最大频率为f,如果采样频率为2f,即每隔1/(2f)秒取一次样,则可完全恢

2017-01-14 13:44:21 9733

转载 [资料]L1算法代码大合集

原文链接:http://blog.163.com/gan_research/blog/static/1653481482010102810141278/SparseLab:http://sparselab.stanford.edu/Orthogonal Matching Pursuit (OMP): SolveOMPPrimal-Dual Basis Pursu

2017-01-14 11:43:52 1321

原创 压缩感知学习笔记-2017.01.13

对压缩感知的简单理解:(1)CS的前提是信号的稀疏性,这包括信号本身在时域上是稀疏的或者信号经过一定的变换在相应的变换域(包括频域、小波域等)上是稀疏的。(2)通过y=Phi*x得到测量信号(y是M维,Phi是M*N维测量矩阵,x为N维原始信号),这样得到的测量信号y就可以传输或者存储了。(3)但CS的关键问题是通过一定的算法在压缩采样数据接收端由y恢复出原始的信号x,此重构问

2017-01-13 16:07:04 577

转载 压缩感知中的lp球:p范数最优化为什么总会导致一个稀疏的解的原因

原文链接:http://blog.csdn.net/jbb0523/article/details/40268943#题目:  压缩感知中的lp球:p范数最优化为什么总会导致一个稀疏的解的原因================问题的引出================压缩感知中为了解释0范数或1范数最优化为什么总会导致一个稀疏解的原因在解释时经常使用lp球与直线的交点去解释,下面

2017-01-10 11:36:57 648

转载 每个程序员都应该阅读的书籍

原文链接:http://blog.csdn.net/deepdsp/article/details/7293372每个程序员都应该阅读的书籍转自:http://www.aqee.net/what-is-the-single-most-influential-book-every-programmer-should-read/英文链接:http://stackoverflow

2017-01-09 21:53:23 368

转载 先战略,后战术

原文链接:http://blog.sciencenet.cn/blog-2068-352520.html几年前,一本《细节决定成败》红遍大江南北。作者在书中指出:中国从来就不缺战略家,缺的是对细节一丝不苟的认真态度。我非常赞同后半句,但是,绝不赞同前半句。我认为,中国人的战略意识也是不够的。 战略和战术其实是相对的。从更大、更高、更重要的层面来思考问题,就是战略;从更小,更低、更次

2017-01-09 21:38:40 933

转载 如何提高英文的科研写作能力

原文链接:http://blog.sciencenet.cn/blog-46212-349932.html作为一个科研工作者,在国际学术期刊上发表科研论文是与同行交流、取得国际影响的必经之路。有些国内的科学家,实验做得很漂亮,但常常苦恼于论文的写作力不从心,成为国际交流的一大障碍。本文从博主的亲身体验出发,给博士生、博士后、以及年轻的PI提供一个借鉴。文章最后做简短总结。 我大

2017-01-09 21:33:58 295

转载 阅读文献时存在的三个问题:坐不住,记不住,想不开

文献阅读是科研的重要基础,但是并非每一个科研人员都喜欢和擅长看文献——例如我自己。我发现,阅读文献存在的问题可以归纳为三个:坐不住,记不住,想不开。第一大问题:坐不住坐不住,指的是不喜欢看文献。为什么我们喜欢看小说,看电视剧,却不喜欢看文献呢?首先是因为看文献难,其次是因为看小说、电视剧更有趣,而看文献却枯燥乏味。“坐不住”的问题怎样才能解决?根据《兴趣从何而来》一文中的分析,可以

2017-01-09 20:44:33 2442

转载 优秀Python学习资源收集汇总(强烈推荐)

原文链接:http://blog.csdn.net/qianhen123/article/details/40380979Python是一种面向对象、直译式计算机程序设计语言。它的语法简捷和清晰,尽量使用无异义的英语单词,与其它大多数程序设计语言使用大括号不一样,它使用縮进来定义语句块。与Scheme、Ruby、Perl、Tcl等动态语言一样,Python具备垃圾回收功能,能够自动管理内存

2017-01-09 20:17:46 368

转载 矩阵的本质-通俗易懂的讲解

原文链接:http://blog.csdn.net/qianhen123/article/details/41120939线性代数课程,无论你从行列式入手还是直接从矩阵入手,从一开始就充斥着莫名其妙。比如说,在全国一般工科院系教学中应用最广泛的同济线性代数教材(现在到了第四版),一上来就介绍逆序数这个古怪概念,然后用逆序数给出行列式的一个极不直观的定义,接着是一些简直犯傻的行列

2017-01-09 18:10:32 23199 8

转载 矩阵、向量求导法则

原文链接:http://blog.csdn.net/qianhen123/article/details/50419514矩阵、向量求导法则复杂矩阵问题求导方法:可以从小到大,从scalar到vector再到matrix。 x is a column vector, A is a matrix$d(A*x)/dx=A$        

2017-01-09 16:33:58 573

转载 压缩感知中的数学知识:稀疏、范数、符号arg min

转载(http://blog.csdn.net/jbb0523/article/details/40262629)本次说三个问题:1、稀疏2、范数3、符号arg min前面两个问题从矩阵理论的书籍中应该可以找到,最后一个问题从最优化类的书籍中应该可以找到。=========================以下为正文====================

2017-01-08 22:56:38 882

转载 Least-squares and linear programming

转载(http://blog.sina.com.cn/s/blog_4b12446d01014imv.html)1、最小二乘可以视为一个没有限制条件的优化问题。and linear programming)" title="最小二乘和线性规划(Least-squares and linear programming)" width="690" height="217">

2017-01-08 22:29:44 470

转载 矩阵的“特征值分解”和“奇异值分解”区别

转载(http://blog.163.com/to_be_myself/blog/static/176060227201101253441822/)       特征值分解处理相关矩阵,奇异值分解处理数据矩阵,两者结果相同,特征值分解可以采用K-L变换,奇异值分解可以借助于svd。svd可以用于求矩阵的伪逆,也可以用来实现降维,K-L变换可以用在信号编码和数据压缩领域关

2017-01-08 22:16:00 1160

原创 Mathematical background for convex optimization

1、范数background for convex optimization)" title="凸优化的数学基础(Mathematical background for convex optimization)" width="690" height="384">矩阵的内积可以表示为background for convex optimization)" title="凸优化的数学

2017-01-08 21:55:25 453

转载 凸优化概念

本文于此网站转载摘抄:http://blog.sina.com.cn/s/blog_4b12446d01014iod.htmloptimization)" title="凸优化(Convex optimization)" width="690" height="319">        最小二乘问题和线性规划问题都可以看成是凸优化问题的特殊情况,但是与最小二乘问题和线性规划问题两者

2017-01-08 21:39:23 577

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除