从语义信息论看正则化准则

本文探讨了正则化准则在机器学习中的作用,通过从贝叶斯角度出发,结合语义信息理论,解释了正则化如何影响模型的逻辑概率和信息量。文章指出,正则化项反映了模型的偏差与信息之间的关系,与传统的误差加正则化准则相类似,其中误差项对应H(θ|X),正则化项对应H(θ)。
摘要由CSDN通过智能技术生成

正则化准则就是在误差准则后面加上正则化项——它反映模型标准差越小越好。这意思是你撒网盖住鱼了,但是覆盖面积越小越好。网盖住整个池塘,就等于没网。用Popper理论解释就是逻辑概率越小越好,因为检验更严厉。 永真句不提供信息。

看到这篇文章:   

从贝叶斯角度深入理解正则化 http://blog.csdn.net/zhuxiaodong030/article/details/54408786

初看觉得很有新意。但是仔细思考, 不对啊, 要用样本优化的是似然函数中的参数啊, 怎么能优化先验参数呢?先验参数和样本无关啊!

我的一篇文章讲到这个问题, 摘录如下:


    把真值函数或隶属函数带进贝叶斯公式:

                 (3.5)


其中T(.|X)是隶属函数, T(.)是逻辑概率。

Shannon信息论中,只有统计概率,没有逻辑概率,也没有预测的概率(似然度). 下面语义信息测度同时用到这三种概率[6]. yj提供关于xi的信息量就是对数标准似然度:

                                       (3.8)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值