DeepLearning
文章平均质量分 55
zsWang9
IT程序员
展开
-
【TensorFlow-CNN】LeNet5神经网络简介附TensorFlow源代码实现
一、前沿本文代码是我在学习TensorFlow时写的第一个代码,主要是根据LeNet模型编写,但是自距此模型问世以来,深度学习领域发生了很大变化,所以其中某些方法和参数已经有所改变,目前此模型通过在GPU上训练,精确度可以达到98%左右,下面我将详细介绍Tensorflow中的实现,本教程适合TensorFlow的初学者,主要有以下特点:使用Mnist数据集测试精度可达98%可视化输出兼具卷积层、...原创 2018-04-12 17:15:56 · 1506 阅读 · 1 评论 -
【TensorFlow】Numpy常用函数汇总(附源码)
以下内容是我在学习Numpy时,写的实例,每一个模块都可以运行,并比较不同函数之间的差别。import numpy as np#dtype 定义numpy的存储类型(np.int np.float),默认是64'''#定义矩阵格式''' [2,34,4]],dtype=np.int32)b = np.ones((3,4),dtype = np.int32) #...原创 2018-04-16 20:33:11 · 3082 阅读 · 0 评论 -
【TensorFlow】如何理解tensorflow.contrib.slim函数?
slim库是tensorflow中的一个高层封装,它将原来很多tf中复杂的函数进一步封装,省去了很多重复的参数,以及平时不会考虑到的参数。可以理解为tensorflow的升级版。导入方式:import tensorflow as tf import tensorflow.contrib.slim as slim常用函数slim.conv2dslim.conv2d是基于tf.conv2d...原创 2018-04-16 20:01:11 · 2476 阅读 · 0 评论 -
【TensorFlow】name_scope, variable_scope等该如何理解?
通俗理解主要是因为 变量共享 的需求。而这就不得不谈到tf. get_variable()了。因为如果使用Variable 的话每次都会新建变量,但是大多数时候我们是希望一些变量重用的,所以就用到了get_variable()。它会去搜索变量名,然后没有就新建,有就直接用。既然用到变量名了,就涉及到了名字域的概念。通过不同的域来区别变量名,毕竟让我们给所有变量都直接取不同名字还是有点辛苦的。所以为...原创 2018-04-16 19:56:29 · 237 阅读 · 0 评论 -
【TensorFlow】关于卷积和pooling层的输出维度问题和相应的参数设置
关于tensorflow shape 设置问题:整形:x_image = tf.reshape(xs,[-1,28,28,1])#-1 表示最后一行,即num_sample:样本数量#[28,28] 图片size#1 表示输出通道数卷积层:tf.nn.conv2d(x,W,strides,padding='SAME')strides步长:[1,x,y,1]strides : strides[0] ...原创 2018-04-16 13:05:07 · 6573 阅读 · 0 评论 -
【DeepLearning】正则化中的weight decay momentum normalization比较和对比
一、weight decay(权值衰减)的使用既不是为了提高你所说的收敛精确度也不是为了提高收敛速度,其最终目的是防止过拟合。在损失函数中,weight decay是放在正则项(regularization)前面的一个系数,正则项一般指示模型的复杂度,所以weight decay的作用是调节模型复杂度对损失函数的影响,若weight decay很大,则复杂的模型损失函数的值也就大。Weight d...原创 2018-04-16 13:01:12 · 953 阅读 · 0 评论 -
【DeepLearning】GoogLeNet Incepetion V1 V2 V3创新点比较总结汇总
一、GoogLeNet Incepetion V1 总结创新点:为解决巨大的参数量带来的 过拟合 和 大大增加的计算成本 问题,提出了Inception结构:对于inception结构而言:1.密集成分 来近似 最优的局部稀疏结构2.2.使用NIN,采用1*1卷积进行降维,降低参数量对于整体结构而言:1 . 显然GoogLeNet采用了模块化的结构,方便增添和修改;2 . 网络最后采用了avera...原创 2018-04-16 12:56:34 · 3483 阅读 · 0 评论 -
【DeepLearning】简述Visual Tracking with Fully Convolutional Networks
基于全卷积网络的视频跟踪概述Visual Tracking with Fully Convolutional Networks背景研究意义整体结构算法实现实验结果一、背景: 1.现有的跟踪方法多数采用生成或区分模型,并将不同类别的但同时发生的对象分开。 2.它们依赖于低级别的手工特征,这些特征不能捕捉到目标的语义信息,对外观显著变化的物体效果不好,只有有限的区分能力。原创 2017-12-01 11:34:59 · 693 阅读 · 0 评论 -
【DeepLearning】深度学习第一课:使用NDArray来处理数据
使用NDArray来处理数据对于机器学习来说,处理数据往往是万事之开头。它包含两个部分:(i)数据读取,(ii)数据已经在内存中时如何处理。本章将关注后者。我们首先介绍NDArray,这是MXNet储存和变换数据的主要工具。如果你之前用过NumPy,你会发现NDArray和NumPy的多维数组非常类似。原创 2017-12-13 14:41:57 · 815 阅读 · 0 评论 -
【DeepLearning】深度学习第一课:使用autograd来自动求导
使用autograd来自动求导在机器学习中,我们通常使用梯度下降(gradient descent)来更新模型参数从而求解。损失函数关于模型参数的梯度指向一个可以降低损失函数值的方向,我们不断地沿着梯度的方向更新模型从而最小化损失函数。虽然梯度计算比较直观,但对于复杂的模型,例如多达数十层的神经网络,手动计算梯度非常困难。为此MXNet提供autograd包来自动化求导过程。虽然大部分的深度学习框架原创 2017-12-13 14:43:31 · 4013 阅读 · 1 评论 -
【MXNet】深度学习第一课:MXNet/Gluon环境配置和安装
环境配置和安装因为我是基本从零学习的深度学习这门课程,在听过李沐的课程后,虽然他的学习资料很详细,但是并没有适合我的具体操作思路和方法,所以根据我的具体情况总结了以下配置和安装具体步骤.原创 2017-12-11 14:24:35 · 9929 阅读 · 2 评论 -
【DeepLearning】吴恩达深度学习课程笔记思维导图
这份思维导图是在学习吴恩达深度学习课程时,做的思维导图主要用于我自己的复习与总结,如果想要原件可以联系我。原创 2018-03-25 11:07:28 · 2300 阅读 · 6 评论 -
【TensorFlow-CNN】使用tensorflow从零创建CNN模型的完整步骤
#encoding:utf-8# import libraries(导入依赖的库文件)import tensorflow as tfimport numpy as npfrom tensorflow.examples.tutorials.mnist import input_dataimport matplotlib.pyplot as plt#define parameteer(定义函数参数)i...原创 2018-04-12 15:19:27 · 1466 阅读 · 0 评论 -
【GPU使用】Google免费GPU_Colaboratory 常用命令汇总
深度学习的小伙伴们,你们是否在为没有GPU,网络训练耗时而苦恼。众所周知,想要入门深度学习,首先要有一块或者N块显卡,这样才能享受开着法拉利在深度学习的道路上策马奔腾的感觉。普通意义上来讲,训练深度网络时,GPU比CPU快40倍左右,也就是说GPU一个小时内可以完成CPU训练两天的量。但是GPU不菲的价格让人望而却步,看完这篇文章就可以随心所欲的拥有自己的GPU。因为,资本主义国家有个公司叫Goo...原创 2018-04-16 11:25:32 · 4009 阅读 · 1 评论 -
机器学习简介
机器学习简介。翻译 2017-12-13 14:31:58 · 735 阅读 · 0 评论 -
【TensorFlow-CNN】AlexNet-6神经网络简介附TensorFlow源代码实现
一、前沿本文代码是我在学习TensorFlow时写的CNN方面的程序,主要是根据AlexNet模型编写,但是自距此模型问世以来,深度学习领域发生了很大变化,所以其中某些方法和参数已经有所改变,目前此模型通过在GPU上训练,精确度可以达到97%左右,下面我将详细介绍Tensorflow中的实现,本教程适合TensorFlow的初学者,主要有以下特点:使用Mnist数据集测试精度可达97%可视化输出兼...原创 2018-04-13 10:28:58 · 491 阅读 · 0 评论