深度学习
Alpha205
非计算机专业,学过的东西,做一点记录
展开
-
GPU版本的Keas安装
TensorFlow是Google推出的深度学习开源框架。相比于Keras、Caffe等框架,TensorFlow在GitHub上的star数量、fork数量、contributor数量都一骑绝尘。,TensorFlow官方已经宣布原生支持Windows操作系统,但目前,仍主要通过CUDA支持Nvidia的GPU,AMD系显卡可通过OpenCL支持,但成熟度较低。本人的安装环境为:wiindo...原创 2018-10-27 17:57:39 · 731 阅读 · 0 评论 -
Python PIL库处理图片常用操作,图像识别数据增强的方法
在博客AlexNet原理及tensorflow实现训练神经网络的时候,做了数据增强,对图片的处理采用的是PIL(Python Image Library), PIL是Python常用的图像处理库.下面对PIL中常用到的操作进行整理:1. 改变图片的大小from PIL import Image, ImageFont, ImageDrawdef image_resize(image...原创 2019-05-11 13:58:30 · 4340 阅读 · 0 评论 -
AlexNet原理及tensorflow实现
AlexNet的介绍 在前一篇博客卷积神经网络CNN介绍了Le-Net5网络的结构以及tensorflow实现,下面介绍一下另一种经典的卷积神经网络AlexNet的结构以及实现。AlexNet可以看作Le-Net5网络的一个更深更宽的版本。其首次在CNN中成功应用了dropout,ReLu,和LRN等trick.1. dropout防止模型过拟合,增强模型的健壮性。2....原创 2019-05-11 09:47:17 · 3965 阅读 · 8 评论 -
深度学习 循环神经网络RNN
循环神经网络简介: 循环神经网络(Recurrent Neural Networks)是一种特殊的神经网络结构, 它是根据"人的认知是基于过往的经验和记忆"这一观点提出的. 它与DNN,CNN不同的是: 它不仅考虑前一时刻的输入,而且赋予了网络对前面的内容的一种'记忆'功能。RNN的主要用途是处理和预测序列数据。 RNN之所以称为循环神经网路,是因为一个序列当前的输...原创 2019-05-05 21:51:18 · 1698 阅读 · 0 评论 -
深度学习 tensorflow 计算图,会话,张量
1. 计算模型---计算图:tensorflow是一个通过计算图的形式来表示计算的编程系统,每一个计算都是计算图上的一个节点,节点之间的边描述计算之间的依赖关系。所以计算过程一般分为两个步骤:1.定义计算图2.执行计算tf.Graph函数支持生成新的计算图,不同计算图上的张量和运算都不会共享:import tensorflow as tfgraph_1 = tf.Grap...原创 2019-04-28 19:36:03 · 452 阅读 · 0 评论 -
深层神经网络
线性模型的局限性:因为线性模型的组合任然是线性模型,所以任意的全连接层网络和单层的神经网络在表达能力上没有任何区别。激活函数:如果将线性模型中每一个神经元通过非线性函数,那么整个神经网络模型就不再是非线性的了。这个非线性函数就是激活函数。tensorflow中有其中激活函数,常见的激活函数:参考:https://www.cnblogs.com/lliuye/p/9486500.ht...原创 2019-05-01 18:13:18 · 302 阅读 · 0 评论 -
卷积神经网络CNN(Convolutional Neural Network)原理与代码实现 Le-Net5
图像识别经典数据集:图像识别是人工智能的一个重要的领域。其他常用的图像识别数据集:CIFAR:http://www.cs.toronto.edu/~kriz/cifar.html CIFAR数据集分为CIFAR-10和CIFAR-100两个问题。 CIFAR-10数据集共有60000张彩色图像,这些图像是32*32,分为10个类,每类6000张...原创 2019-05-02 16:09:50 · 1782 阅读 · 0 评论 -
深度学习 手写字体识别
数据集介绍:mnist数据集使用tensorflow封装好的数据(包含6000张训练数据,1000张测试数据),图片大小为28x28。在神经网络的结构上,一方面需要使用激活函数去线性化。另一方面需要增加网络的层数以解决更加复杂的问题。关于tensorflow中的几个函数:1. tf.Variable()和 tf.get_variable()中的区别:tf.Variable():...原创 2019-05-01 18:47:16 · 10774 阅读 · 3 评论 -
skip-gram模型介绍及代码
在自然语言处理中,首先要把文本转化为数据的形式,更确切地说,是把词转化为向量的形式,才可以用计算机通过各种算法处理自然语言问题。在词向量的表示方法中,One-hot编码是一个非常经典的表示方法,但是在这种编码方法中,词向量的维度等于词的总个数,且词向量中只有一个位置数为1,其他位置全为0,这就导致了词表构成的矩阵是一个稀疏矩阵,它会消耗相当大的计算资源。 word...翻译 2019-04-21 18:11:03 · 17249 阅读 · 6 评论 -
VGGNet原理及tensorflow实现
VGGNet介绍:VGGNet是牛津大学计算机视觉组和Google DeepMind一起研发的卷积神经网络,VGGNet探索了卷积神经网络的深度与其性能之间的关系。VGG的结构特点是通过反复堆叠3x3的卷积核和2x2的max-pool, 与在其之前的卷积神经网络相比,错误率大大降低。同时,VGGNet扩展性强,迁移其他数据上的泛化能力好,因此VGGNe常被用来提取图像特征。VGG各级别网络...原创 2019-05-12 21:17:30 · 960 阅读 · 0 评论