- 博客(7)
- 资源 (22)
- 收藏
- 关注
原创 用于子空间分割的低秩表达的background knwolodges
如今重回过头来阅读之前的low rank representation(以下简称LRR)的paper,看了前面一段就觉得感受非常的深刻,因为平时老板帮我们理解paper的时候也很少说一些assumption,所以直接上来给你说方法你会出现一些疑问:比如这个方法为什么就可以用于这种问题,这个问题到底又是什么问题?其实很多paper中在开始的部分或多或少的提起一些来,可能自己之前的英语实在太差了吧,今
2013-09-29 22:22:52 3652 3
原创 深度学习中卷积和池化的一些总结
最近完成了hinton的深度学习课程的卷积和池化的这一章节了,马上就要结束了。这个课程的作业我写的最有感受,待我慢慢说来。1:里面有几个理解起来的难点,一个是卷积,可以这么来理解。这幅图是对一个5*5的矩阵A进行3*3的矩阵B的卷积,那么就从最上角到右下角,生成卷积之后的矩阵的大小是(5-3+1)*(5-3+1)的矩阵,生成之后的矩阵的元素值,是之前的两个矩阵对应元素的乘积之和,这
2013-09-18 15:48:32 59059 14
原创 dwz中可编辑行中使用“查找带回”的一个小BUG
趁着睡觉前终于修正了这个BUG,来记录下:1:DWZ具有一种“批量录入”的功能,就是根据设置好的,自动点击“添加”可以在列表出现一个空行,然后在空行中录入数据,最后一起提交,例子中是"suggest+lookup",在线面,自己对着看吧。2:当列中具有“查找带回”的时候,如果设置了suggestFields的话,并且设置正确的话,那么就可以该功能正常使用,但是如果不想用suggest功能的
2013-09-13 00:17:02 4195
原创 Deep Learning课程作业中深度网络的习题备忘
Deep Learning的在线学习资料一直进展比较慢,开始的时候还可以,只有一层的训练,简单的BP算法求导然后使用L-gfbs就基本可以求出来解了。但是真正到了后面的深度网络的时候才算是真正的是Deep的Learning吧。1:这节课是使用2层的sparse encoder然后给stacked起来,第二层的sparse encoder的输出直接带入到一个softmax层的输入,然后进
2013-09-11 11:14:17 1675
原创 用最小二乘做为线性回归的代价函数的一些解释
先介绍下问题的背景:要从看NG Adrew的机器学习视频课程说起,这个课程很早就下载了,但是当时基础知识不够很多没看懂,反反复复看了几次前面的几节课程。昨晚再次看到"under fittng"以及"over fitting"这个视频(是第四个视频吧)的时候,里面讲到了这个问题,也就是在线性回归中,对房价的预测为什么使用了J = 1/2*(y-h(x))^2作为代价函数来求解参数。接
2013-09-10 14:24:34 5330 1
原创 matlab中的sparse和full以及ground truth matrix
sparse和full的用法都不止一种,我说下目前我用到的,看doc总是觉得不怎么明白:M = sparse(r, c, v)得到的是一个稀疏矩阵M,用r(i)代表r中的第i个元素,c(i)代表c中的第i个元素,v(i)代表v中的第i个元素,r,c,v都是向量,则上面命令得到的结果是:M(r(i), c(i)) = v(i)。也就是说r,c中的元素的值代表了v元素在M中的位置。举个例子
2013-09-05 11:06:21 2965
VC++入门-首字母大写自动转换程序
2012-05-06
队列的一个纯C的封装
2010-06-02
spring-framework-2.5.5-with-dependencies
2008-09-12
spring-framework-2.5.5-with-dependencies
2008-09-12
spring-framework-2.5.5-with-dependencies.zip
2008-09-12
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人