- 博客(20)
- 资源 (25)
- 收藏
- 关注
原创 deep learning 从自我学习到深层网络学习
第二节我们已经已经构建了一个包括输入层、隐藏层以及输出层的三层神经网络。虽然该网络对于MNIST手写数字数据库非常有效,但是它还是一个非常“浅”的网络。这里的“浅”指的是特征(隐藏层的激活值 )只使用一层计算单元(隐藏层)来得到的。
2014-10-22 10:23:24 3819
原创 产生任意随机数发生器
如何利用给定的随机数发生器产生其他任意你想得到的随机数发生器。假定给定的随机数发生器是变量产生离散变量X服从某一分布(例如均匀分布,高斯分布等等),任意你想得到的随机数发生器满足分布Y,假设X和Y其概率密度分布函数分布为g(x),h(y)。假定用X随机数发生器产生Y随机数发生器,下面分为2步求解随机数发生器。
2014-10-18 18:49:30 4434 2
原创 deep learning 自学习网络的Softmax分类器
这一节我将跳过KNN分类器,因为KNN分类器分类时间效率太低,这一节讲Sparse autoencoder + softmax分类器。首先普及一下Sparse autoencoder网络,Sparse autoencoder可以看成一个3层神经网络,但是输入的数目和输出的个数相等。Sparse autoencoder的作用是提取特征,和PCA的功能有点类似,那么Sparse autoencoder
2014-10-18 01:33:28 32213 17
转载 程序员:伤不起的三十岁
程序员干到30岁,好不容易从码奴混到了白领,却再也干不动了,还时时面临失业的危险。30岁,是一个程序员伤不起的年龄。明天,何去何从?一.30岁现象在官场上,曾经有一个59岁现象,就是官员们会在59岁时,会使劲捞上一把。很明显嘛,权力过期作废,再不捞就要退休了,没有机会了。在程序员的圈子里,也有一个30岁现象。当然,如果你有铁饭碗,比如在国企或政府机关,那你是无法理解底层劳动人民的感受的
2014-10-12 20:05:21 1893
转载 给IT新人的15个建议:苦逼程序员的辛酸反省与总结!
很多人表面上看着老实巴交的,实际上内心比谁都好强、自负、虚荣、甚至阴险。工作中见的多了,也就习惯了。 有一些人,什么事都写在脸上,表面上经常得罪人,甚至让人讨厌。但是他们所表现的又未必不是真性情。 我相信大多数人都看过《豪门夜宴》这部香港老电影。张学友、梁朝伟演的拍马屁的场景太有意思了,其中有这样一段:当两马屁精帮老板说出主意,老板马上叫 停,然后拍一下脑门:“哦。。。我想到了。
2014-10-12 20:05:09 1784 5
原创 共轭梯度法(Conjugate Gradient Methods-CG)在回归分析的应用和比较
前4节讲了Trust-Region+DogLeg、最速下降法(SD)、Barzilar, Borwein(BB)法。 信赖域法:Trust-Region+DogLeg 梯度法:最速下降法(SD)、Barzilar, Borwein(BB)。 这节将会讲一种共轭梯度法(CG),将和前面几种方法进行比较,比较其收敛性和最小迭代次数。 共轭梯度法(
2014-10-06 11:27:15 4999 2
原创 最速下降法 的原理以及在回归分析中的应用
上两节讲了信赖域法+狗腿法,其中第二节中的(“强凹凸二次函数”改为“强凸二次函数”),这一节将会讲最速下降法SD,最速下降法在模式识别和机器学习中运用最为广泛,在Deep Learning中也应用了最速下降法,尤其在在卷积神经网络中,熟悉CNNs(convolutional neural networks )的人知道卷积神经网络大量用于图像识别与跟踪。利用最速下降法在反馈调节中调参,在CUDA
2014-10-03 21:27:51 5917 2
原创 信赖域法+狗腿法在回归分析中的应用
第一节上节已经讲了信赖域法+狗腿法解决强凹凸二次函数,现在把这个方法引用于Multivariance Linear Regression中,以解决一些机器学习及其模式识别的问题。同时现在回归问题也大量运用于Deep learning之中。通常模式问题进行参数调整时都会涉及到学习率α的问题,而我们通常是自己给定的,比如0.01或者0.1,这样的结果可能会使迭代次数增加或者损失函数成震荡状况。下面
2014-10-02 00:12:12 2878 4
基于深度学习和稀疏表达的人脸识别算法
2017-03-12
预测房子大小的数据http://blog.csdn.net/hlx371240/article/details/39724869
2014-10-02
基于RFID的学生管理系统
2013-11-27
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人