- 博客(5)
- 资源 (2)
- 收藏
- 关注
原创 贝叶斯线性回归(Bayesian Linear Regression)
mlapp看到了第七章,跳了第六章没看,第七章主要是讲线性回归的,前面首先是最朴素的线性回归,接着是ridge线性回归(其实就是带惩罚参数的回归),然后就是本文要总结的贝叶斯线性回归。把prml和mlapp综合起来看了,效果还不错,有些东西互有详略,可以互做补充。1.引入 贝叶斯线性回归的引入主要是在最大似然估计中很难决定模型的复杂程度,ridge回归加入的惩罚参数其实也是解决这个
2013-01-31 11:01:37 43626 6
原创 关于“人工智能”的思考
(一点点想法和思考) “人工智能”,窃以为是计算机科学最引人入胜的一个方向,可惜的是我们还没能看到有任何突破性的进展,就像网易公开课对“斯坦福机器学习”课程的描述一样,“人工智能”似乎遇到了一个瓶颈。虽然如你所见,似乎智能化在ios上的siri之后越来越接近人们的生活了,但其实本质上并没有任何的突破。张钹院士有这样一个比喻“人类的技术发展正如同开门,当我们找不到这扇门的钥匙时,如果能
2013-01-12 21:29:39 3895 2
原创 《象与骑象人》摘要及一点想法
总是轻易认同一种观点,此乃成个人思想之阻碍,以此自省。理解,转化,自我提升。------我的读书箴言=============================================================== 《象与骑象人》,开始看介绍以为是一本集百家言的书,现阅毕,作者纳百家言于一理,即“象于骑象人”的假设,这是一篇心理学的著作,读起来有死理性的感觉,大概这是心
2013-01-06 20:30:44 2447
原创 [机器学习]信息论(Information theory)的一些point
信息论(Information theory)的一些points①—熵(entropy) 对于一个变量X~p(X服从p分布),该变量的熵是描述该变量的不确定性的一个值 eg:对于一个有k个状态的离散随机变量X,有 a.当log以2为底的时候称之为 bits,结果可以视为多少个二进制位可以表示该变量
2013-01-02 20:39:49 18460 4
原创 我的2012
2013,阳光正好,还是总结几句2012,顺便展望一下。ps:发现12月博客写得很水啊,其实我用本子记了很多东西,感觉整理到网上太费时间了,所以就搁浅了,有时间找重点弄上去我的2012--放弃,选择,和坚持又记起刚开始信誓旦旦地要做ACM,最近突然被一个学长问到做得如何了,脸刷一下就红了,放弃ACM,这是我的2012一个很重要的决定,虽然后面仍然坚持了听了一两个月的每周的讲座,但确实没
2013-01-01 17:20:11 3062 13
多元正态分布多元正态分布
2012-11-20
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人