Theano
文章平均质量分 65
斯温jack
这个作者很懒,什么都没留下…
展开
-
Deep Learning 初探(四)
CNN卷积神经网络初探: 这里有一些对多层感知机的概念的重新阐述, 多层感知的特点是一种层间全连接的神经网络,即在信息上是没有损失的。 卷积神经网络具有如下要讨论的一些特点。 Sparse Connectivity(指稀疏链接),即在设定神经网络的链接时,并不使用 所有数据,而是每个连接元仅仅使用一部分,整合后覆盖整个信息。 这种链接方式的一个特点是,由于有中间隐藏层的存在,在进行训练原创 2016-10-31 21:02:45 · 347 阅读 · 0 评论 -
Deep Learning 初探(三)
numpy 矩阵与向量加和实现按列加和的形式, 故被类别实现常数项的加和是合理的。 多层感知机的设计基本上是在logistic回归前,加一个预处理过程, 通过S形曲线做映射,将空间变得线性可分(这个目的一般是通过核方法实现的), 从隐藏层的处理上来讲,其是通过设定一些非线性变换及设定数量来实现 变换,这种变换并不能单纯从变换后的维度上直接看出,例子可以从 rbf(径向基)函数上翻译 2016-10-26 17:19:23 · 221 阅读 · 0 评论 -
Deep Learning 初探(二)
对于theano中的若干运算形式也可以结合numpy进行检验, 相应的法则是相同的。简单的验证是可以完成的。 theano运行所使用的内存与python使用的内存是相互独立的, 一般的theano shared变量可以通过将参数borrow设定为True将内存进行 共享而非copy,这样能够节约空间。 下面看使用Theano完成Logistic Regression的过程: 类的初始化翻译 2016-10-25 19:25:45 · 268 阅读 · 0 评论 -
Deep Learning 初探(一)
deep learning 一些基本概念 及模型的介绍, 有关图片识别的部分被指定为像素的float表示,label的int表示。 在有关模型的讨论中数据集被分割为三部分:train_set valid_set test_set 分别以numpy的数组方式进行储存 valid_set用于选择超参数 基本的实现先说明分类模型,对于分类方法,所指定的是概率上的最大值问题, 条件翻译 2016-10-24 17:03:32 · 355 阅读 · 0 评论 -
Theano 初探(二)随机数与梯度下降logistic模型
theano随机数生成: 由RandomStreams 定义生成的随机数流,在相应的函数中如设定no_dafault_updates = True 会相应的使得随机数generator不更新randomState 即产生相同的随机数生成结果。 RandomStreams所定义的随机分布生成对象在调用rng.get_value或set_value方法时 有参数borrow其与retu翻译 2016-09-09 06:54:38 · 818 阅读 · 0 评论 -
Theano 初探(一)
设定T.dscalar设定 theano标量, 转换函数中 string 'x'并没有实质性作用, 其作用在于调试。 这里生成function f后,f就是一个“一般的”python函数, 这与不设定function的另一个调用形式相对应, z.eval({x: 16.3, y:12.1}) theano 函数还支持张量输出,即多维因变量。 亦可以使用诸如 T.dmat翻译 2016-09-08 06:54:48 · 1055 阅读 · 0 评论 -
Deep Learning 初探(五)
下面展开对整体CNN的讨论: 卷积神经网络的整体结构相当于在MLP(多层感知机)的前面 加上若干卷积层及MaxPooling层进行预处理,从而得到边界的相关信息。 下面对有关整体代码的一些细节进行讨论: 有关一些初值的界的问题不进行进一步讨论,把它看成规定。 一般在使用MaxPooling的时候选择ignore_border=True是基于将边界 无实际意义的像素过滤掉。翻译 2016-11-02 17:09:16 · 389 阅读 · 0 评论