神经网络
文章平均质量分 73
Liu Zhian
这个作者很懒,什么都没留下…
展开
-
pytorch可视化的常用方法
pytorch可视化的常用方法1. 保存为图片假设一个tensor的维度为[N,C,H,W],我们要把这个mini-batch格式的tensor保存到图片,那么可以这样:先作一些处理工作(一般是unnormalize)然后用make_grid()方法把mini-batch变换成网格状的一张大图片,结果是一个3D的tensor最后用save_image()将make_grid()的3D结...原创 2020-02-10 18:14:07 · 1242 阅读 · 1 评论 -
Tensorboard使用技巧 & 命令
1. Tensorboard改变图片滚动条每次移动的gaptensorboard ---logidr <path/to/your/logfile> --samples_per_plugin images=100原创 2020-01-02 11:54:31 · 1255 阅读 · 0 评论 -
(转) How tf.conv3d works?
文章目录1. 视觉角度2. 计算角度3. tensorflow 接口介绍3.1 官方文档3.2 解释Reference1. 视觉角度我们首先先通过一张图来直观的看看2D与3D卷积的区别:从图中(只包含一个卷积核)我们可以看出,1. 对于2D卷积:2D convolution: 使用场景一般是单通道的数据(例如MNIST),输出也是单通道,对整个通道同时执行卷积操作;2D co...转载 2019-09-14 19:12:50 · 238 阅读 · 0 评论 -
Residual Dense Network for Image Super-Resolution 代码详解
Residual Dense Network for Image Super-Resolution以下是 RND论文Tensorflow版本实现的源码解析,我假设你已经了解Python的基本语法,和Tensorflow的基本用法,如果你对它们不是很熟悉,请到它们的官网查阅tutorial。以下所有代码你都可以在我的仓库找到,chinese_annotation文件夹下是我添加中文注释后...原创 2018-12-05 19:52:11 · 3735 阅读 · 7 评论 -
神经网络模型建立步骤
When establish a deep learning model like CNN, we should follow these steps below.1.Sanity check your loss.IF You use a softmax classifier, we expect the loss for random weights (with no regularizat...原创 2018-11-11 15:20:32 · 9720 阅读 · 0 评论 -
BatchNormalization的反向传播
说明:本文转自Understanding the backward pass through Batch Normalization Layer推导过程清晰明了,计算图的使用也大大降低了BP求导的复杂性和难度,强烈推荐学习一下,下面的部分均为作者原文。 At the moment there is a wonderful course running at Standford ...转载 2018-10-31 20:52:37 · 3795 阅读 · 5 评论 -
TensorFlow——多维矩阵的转置(transpose)
今天在深度学习第四课的神经风格转移遇到了一个折磨了我很久的东西,就是高纬度矩阵转置,不得不说,一旦维度升高,真的会让人懵逼,废话不多说,开始讲一下我对TensorFlow中transpose()函数的用法。先看一下官方API:tf.transposetranspose( a, # a是一个张量 perm=None, ...原创 2018-07-03 23:02:51 · 31101 阅读 · 9 评论 -
tensorflow实战——Day4
终于考完了数值分析,终于可以接上tensorflow学习了。。TensorFlow通过名字管理变量在写代码的时候,我们会发现,参数真的太多太多了,传这里传一下weight,那里传一下bias,头都要大了,还好,TensorFlow为我们提供了一种通过名字管理变量的办法,这里说的名字不同于变量名。举个栗子,有个变量就是[[1],[1]],然后我们给它叫一个名字,这个名字是唯一的,比如“one...原创 2018-06-27 23:35:43 · 149 阅读 · 0 评论 -
TensorFlow实战——day5(CNN)
以下神经网络是基于LeNet-5的结构,处理mnist数据集识别分类输入:m*28*28*3卷积核1:5*5*3*32,步长1,padding为0填充池化核1:2*2卷积核2:5*5*32*64,步长1,padding为0填充池化核2:2*2池化2后得到m*7*7*64大小张量,拉直成m*3136的矩阵接下来是两个全连接层,分别是512个结点,10个结点im...原创 2018-07-02 18:25:30 · 200 阅读 · 0 评论 -
tensorflow实战——Day3 mnist数据集
前几天都是TensorFlow里面的一些基本函数用法和基本概念,今天跑个MNIST数据集玩玩。下面是模型代码,模型中只设置了1层隐藏层,300个结点,模型准确率达到了98%+。from tensorflow.examples.tutorials.mnist import input_dataimport tensorflow as tf# 指定数据集位置mnist=input_...原创 2018-06-24 12:43:45 · 270 阅读 · 0 评论 -
tensorflow实战——Day2
在以前的版本中,TensorFlow是有select()这个函数的,1.0版本后改名为了where() 函数API如下: tf.where( condition, x=None, y=None, name=None ) 参数 Args: condition: A Tensor of type bool ...原创 2018-06-23 15:34:47 · 164 阅读 · 0 评论 -
tensorflow实战——Day1
import tensorflow as tftensorflow 中默认整数为int32 小数为float32下面创建a和b两个常量a = tf.constant([1, 2],dtype=”float32”, name=”a”) b = tf.constant([3, 4], dtype=”float32”,name=”b”) result = tf.add(a,b,nam...原创 2018-06-22 11:34:44 · 209 阅读 · 0 评论 -
CNN——残差网络实现
来自Coursera深度学习系列课程作业Residual NetworksWelcome to the second assignment of this week! You will learn how to build very deep convolutional networks, using Residual Networks (ResNets). In theory, very...原创 2018-05-28 20:36:57 · 3716 阅读 · 0 评论 -
Keras简单入门——the Happy House
以下来自Coursera深度学习系列课程第四课第2周编程练习Keras tutorial - the Happy HouseWelcome to the first assignment of week 2. In this assignment, you will: 1. Learn to use Keras, a high-level neural networks API (p...原创 2018-05-26 17:31:33 · 522 阅读 · 0 评论 -
CNN——识别手势小项目
本文来自Coursera深度学习系列课程项目作业,请勿作为商业用途使用。 需要数据集的可以邮箱联系我 929910266@qq.comConvolutional Neural Networks: ApplicationWelcome to Course 4’s second assignment! In this notebook, you will:Implement helpe...原创 2018-05-14 00:00:30 · 5591 阅读 · 10 评论 -
CNN——向前&向后传播
Convolutional Neural Networks: Step by StepWelcome to Course 4’s first assignment! In this assignment, you will implement convolutional (CONV) and pooling (POOL) layers in numpy, including both forw...原创 2018-05-13 18:29:20 · 1928 阅读 · 0 评论