Deep Learning
文章平均质量分 75
zCGr_GzGy
这个作者很懒,什么都没留下…
展开
-
Deeplearning学习之路_第二章(Vectorization&PCA)
一些笔记:1)Vectorize1.对于matlab编程,将数据向量化后,利用matlab的函数提供的强大的矩阵处理功能对数据进行处理将比写C—style的显示循环处理数据的效率要高很多,所以要在不断的练习中客服使用显示循环的习惯。2)PCA1.对于输入数据的特征之间可能存在高度相关的数据(比如图像),这种数据一般都称为冗余数据。面对这种数据时,我们的第一反应就是如何提取数据中有用原创 2013-10-01 16:42:09 · 1711 阅读 · 0 评论 -
Deeplearning学习之路_第三章(Softmax回归)
一些笔记:Softmax回归1.Softmax回归是logistic回归更一般的形式,logistic回归是针对二分类问题,而softmax回归更加一般化的针对k分类问题;2.通常logistic回归的类别为{0,1},而softmax回归习惯用{1,2,...k};3.不同于logistic回归的还有一个地方,softmax回归的的参数集是冗余的,hypothesis funct原创 2013-10-02 20:03:46 · 3215 阅读 · 2 评论 -
Deeplearning学习之路_第四章(Self-Taught learning&deep networks)
一些笔记:原创 2013-10-05 17:20:43 · 1788 阅读 · 0 评论 -
Deeplearning学习之路_第零章(序言)
偶遇很偶然的一次机会,在随意浏览网页的过程中看到了网易公开课——机器学习的课程,并因此被课程所包含的的生动有趣的内容所吸引,便把课程给学完了,感觉意犹未尽的我也下决心以后要往这个方向发展。初来咋到,被机器学习世界眼花缭乱的算法理论所迷惑,不知道从何入手,由于自己之前对计算机的接触大多局限在一些娱乐项目中,因此严重缺乏编程经验的我,只停留在用c写一个20行的简单小程序的水平,想要实现一些复杂的算原创 2013-09-21 16:44:28 · 973 阅读 · 0 评论 -
Deeplearning学习之路_第一章(Sparse Autoencoder)
一些笔记:前馈神经网络(feedforward network):1.一个网络通常又若干层构成,每一层网络都有若干个神经元,在参数初始化之前,每一层的各个节点彼此无法区分,不知道以后“承担”怎样的任务;2.参数随机初始化是使得对称失效,使得各个节点互相可以“区分”;3.每个神经元接受到实数z作为输入,输出f(z),f是激活函数;4.激活函数通常选择sigmoid或者tanh;原创 2013-09-21 19:50:50 · 2421 阅读 · 1 评论