L1 与L2

L2 norm就是欧几里德距离 
L1 norm就是绝对值相加,又称曼哈顿距离
 

 搞统计的人总是喜欢搞什么“变量选择”,变量选择实际上的 限制条件是L0 Norm,但这玩艺不好整,于是就转而求L1 Norm(使用均方误差,就是Lasso ,当然在Lasso出来之前搞信号处理的就有过类似的工作),Bishop在书里对RVM好一通 吹牛,其实RVM只是隐含着去近似了一个L0 Norm, 所以得到了比SVM更稀疏的解(Tipping 写了RVM后不久就指出来了,可Bishop就是只字不提,好像贝叶斯推理有多牛,其实很多问 题 都被掩盖了起来,指望一种理论解释所有的现象总是很危险的)。最近Bin Yu给了关于La sso一致性的几乎充要条件。 SVM方面也搞了很多L1 Norm方面的东西(就是Hinge Loss在加个L1 Norm做正则化项)。 关于L1 Norm的正则化能产生稀疏解听到过个很形象地解释,那个图(L1 Norm就是个菱 形,L2 Norm是个圆)大家都看过吧,似然度(目标函数里的误差项)是个圆,求解的时候 就是拿这个圆往那个菱形(L1 Norm)圆(L2 Norm)上扔,L1的话就很可能撞到角上,所 以就稀疏了(上面是2维的情况,推广的多维就更容易撞到角上)。但如果这些变量高度相 关呢?那似然度就不是个球了,可能是个椭球,还有可能是个非常非常扁的家伙,这次再 扔就可能和正则化项很大一片都接触到了,这时候就很危险了,就果拟合了,如果数据少 ,那么这时就算是做交叉验证、留一也都无法避免过拟合。 有人提出来正则化项要足“sparsity、unbiasedness、continuity”,这样Lp没有一个 可以同时满足,所以有人又搞了个SCAD. 


Metrics on vector spaces

Norms on vector spaces are equivalent to certain metrics, namely homogeneous, translation-invariant ones. In other words, every norm determines a metric, and some metrics determine a norm.

Given a normed vector space (X, \|\cdot\|) we can define a metric on X by

d(x,y) := \| x-y\|.

The metric d is said to be induced by the norm \|\cdot\|.

Conversely if a metric d on a vector space X satisfies the properties

  • d(x,y) = d(x+a,y+a) (translation invariance)
  • d(\alpha x, \alpha y) = |\alpha| d(x,y) (homogeneity)

then we can define a norm on X by

\|x\| := d(x,0)

Similarly, a seminorm induces a pseudometric (see below), and a homogeneous, translation invariant pseudometric induces a seminorm.

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值