![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
tensorflow
何洋TJU
就读于天津大学智能与计算学部,现研二
展开
-
Tensorflow实现多层感知机
今天对照Tensorflow的书,实现了一个简单的多层感知机。基于MNIST数据集。 多层感知机与之前的Softmax Regression的区别是多了一层隐藏层,但是,本质上还是FCN(全连接神经网络),与卷积神经网络还是有差距的。 下面上代码: from tensorflow.examples.tutorials.mnist import input_data impo...原创 2018-08-03 18:28:04 · 406 阅读 · 0 评论 -
Tensorflow实现一个简单的卷积神经网络
今天对照Tensorflow的书,实现了一个简单的卷积神经网络。基于MNIST数据集。 在神经网络还未出现之前,在处理图像的问题上都是使用的特征工程(如SIFT)。特征工程是有局限性的。CNN被用于图像处理,不需要将特征提取和分类训练两个过程分开,它在训练时就自动提取了最有效的特征。 卷积神经网络由多个卷积层构成,每个卷积层通常会进行如下操作: 1. 使用多个卷积核进行滤波,并加bias,提...原创 2018-08-04 20:33:38 · 706 阅读 · 0 评论 -
Tensorflow实现进阶的神经网络
今天对照Tensorflow的书,实现了一个进阶的卷积神经网络。基于CIFAR-10数据集。 CIFAR-10数据集官网:http://www.cs.toronto.edu/~kriz/cifar.html (这里选择二进制版本进行下载) 与之前的简单的神经网络相比,此进阶的神经网络,使用了一些新的技巧: 1. 对weights进行了L2正则化 2. 对图片进行了翻转、剪切等图片增强 ...原创 2018-08-05 12:41:14 · 512 阅读 · 0 评论 -
Tensorflow实现Google Inception Net
今天对照Tensorflow的书,实现了Inception Net。在Inception Net实际应用时,是基于ImageNet的。考虑到耗时,在本篇博客(甚至是在Tensorflow的书中),只计算每个batch的前馈计算(Forward)。 Inception Net最大的几个特点: 1. 使用了分支结构,并使用concat将分支结合在一起 2. 使用1X1的卷积,可以低成本的将特征进...原创 2018-08-10 09:52:51 · 181 阅读 · 0 评论 -
Tensorflow实现ResNet
今天对照Tensorflow的书,实现了ILSVRC 2015比赛中的冠军ResNet。同样,在ResNet实际应用时,是基于ImageNet的。考虑到耗时,在本篇博客(甚至是在Tensorflow的书中),只计算每个batch的前馈计算(Forward)。 ResNet使用了残差单元(Residual Unit)。残差的出发点是,希望原始输入信息直接传输到后面的层中。假设某段神经网络的输入是x...原创 2018-08-10 11:08:47 · 1091 阅读 · 0 评论 -
手写数字识别——Softmax Regression
今天对照Tensorflow的书,实现了一个简单的手写数字识别的算法Softmax Regression。 其中的mnist数据集,下载自http://yann.lecun.com/exdb/mnist/ from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.rea...原创 2018-08-02 23:27:23 · 553 阅读 · 0 评论 -
Tensorflow实现自编码机
今天对照Tensorflow的书,实现了一个简单的自编码机。基于MNIST数据集。 自编码器,简单来说,就是用自身的高阶特征对自身进行编码。自编码器的特征非常明显:1.期望输出与输入一致; 2.希望用高阶的特征来重构自己。也就是说,实现自编码器的目的并不是去关注分类结果,而是去关注训练完成后的网络模型,网络模型的每一层代表了从基础到高阶的特征。无监督的自编码器是一个用处广泛的提取...原创 2018-08-03 15:35:40 · 381 阅读 · 0 评论