- 博客(5)
- 资源 (2)
- 收藏
- 关注
原创 aaaaa
http://fpdownload.macromedia.com/pub/shockwave/cabs/flash/swflash.cab#version=6,0,0,0" classid="clsid:d27cdb6e-ae6d-11cf-96b8-444553540000">http://wenku.baidu.com/static/flash/apireader.swf?docurl=htt
2016-12-28 20:59:20
554
转载 • UFLDL教程练习(exercise)答案(1)
之前看过Andrew NG大神写的UFLDL教程,觉得很不错,不过一直比较懒,没有动手做里面的练习,最近做了一下,感觉很有意思。下面是《稀疏自编码器》和《矢量化编程实现》这两节我自己实现的练习答案,不保证完全正确,不过结果和网站上面给出的基本一致。稀疏自编码器step1在sampleIMAGES.m文件中完成生成训练集的代码,如下,tic和toc用来
2015-10-30 10:22:07
755
转载 Normal Equations 的由来
Normal Equations 的由来假设我们有m个样本。特征向量的维度为n。因此,可知样本为{(x(1),y(1)), (x(2),y(2)),... ..., (x(m),y(m))},其中对于每一个样本中的x(i),都有x(i)={x1(i), xn(i),... ...,xn(i)}。令 H(θ)=θ0+ θ1x1 +θ2x2+... + θnxn,则有若希望H(
2015-10-23 16:51:48
789
转载 机器学习中代价函数选择的数学推导
在遇到线性回归问题时,我们总是令 。可是我们为什么这样选择代价函数呢?我们提到过是为了使目标变量(指 )的真实值和预测值的距离最小,想想也算合理。但是本篇博文将从概率的角度解释为什么这么选择代价函数,相信大家看完之后就会明白这个选择之后蕴含的更加深层次的原因。 首先,让我们假设:输入变量和目标变量满足等式 ,其中误差 表示在建模过程中没有考虑到的,但是对预测结果有影响的因素或
2015-10-23 14:29:14
1214
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人