![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
起步晚就要快点跑
这个作者很懒,什么都没留下…
展开
-
input_data
在需要导入mnist数据集的时候使用import input_data会报错ModuleNotFoundError: No module named ‘input_data’所以改成from tensorflow.examples.tutorials.mnist import input_data...原创 2018-12-14 04:47:45 · 3820 阅读 · 0 评论 -
CNN中卷积的含义和可视化表示
卷积中的每个filter也就是过滤器可以被看成特征标识符,随着层数加深,过滤器会越来越复杂1.低层的卷积过滤器一般代表一些边缘特征,颜色等。2.较高层的过滤器会代表一些边缘特征的组合,如颜色和边缘组成的简单纹理3.更高层的过滤器会类似于自然图像中的纹理,如羽毛眼睛鼻子等如果图像中含有过滤器所识别的特征,则会有较大的激活,否则则不会激活。例如图像中有一个眼睛,那么所代表眼睛的那个滤波器会激活...原创 2019-05-30 17:11:13 · 873 阅读 · 0 评论 -
pytorch中optim灵活设置各层的学习率
最近研究网络代码的时候,发现师姐的网络在优化的时候学习率是不完全相同的,如下面所示,于是想搞明白。我平常设置学习率都是整个网络统一设置,optimizer = torch.optim.SGD(net.parameters(), lr=0.5) optimizer = optim.SGD([ # encoder-weights {'params': net.get_pa...原创 2019-04-15 21:06:01 · 4203 阅读 · 0 评论 -
pytorch MNIST数据集代码
花了一上午的时间,用mnist数据集练习了pytorch训练神经网络,调节了很多小的bug,写有比较详细的注释import numpy as npimport torchfrom torchvision.datasets import mnistimport torchvisionfrom torch import nnfrom torch.autograd import Variab...原创 2019-03-11 11:05:27 · 1106 阅读 · 0 评论 -
tensorflow备忘
有一段时间没有看了,有点忘记,又花了半天的时间复习,这里记一下tensorflow支持的格式是四维的[n, h, w, c]这里n 为batch_size的大小h和w分别为图像的高度和宽度c为通道数channel在卷积网络中,权重参数w的初始化[h, w, input_channel, output_channel]...原创 2019-02-26 15:34:37 · 106 阅读 · 0 评论 -
深度残差网络
今天看的论文是Deep Residual Learning for Image Recognition同时结合了吴恩达关于深度残差网络的讲解对于添加了残差块的网络,让网络学习到最后的恒等函数是很容易的,所以网络层次变深,网络的性能至少不会下降,而如果中间的隐层学习到了一些东西,这样网络的性能就会提升了。而对于普通的网络(plain network),越来越深层的网络很难学习,所以性能会下...原创 2019-02-28 15:39:25 · 239 阅读 · 0 评论 -
tensorflow问题 如何打印tensor和卷积方式
看论文的时候突然想起tensoflow之前一直没搞明白的一点问题,用一个多小时查资料解决。1。如何打印tensor的值:简单举个例子import tensorflow as tfx = tf.constant([1., 2., 3., 4., 5., 6., 7., 8., 9.], shape=[1, 3, 3, 1]) # 输入一个3*3单通道图像y =tf.constant([...原创 2019-02-27 15:40:24 · 840 阅读 · 0 评论 -
tf-faster-rcnn代码阅读:datasets
class pascal_voc(imdb): def __init__(self, image_set, year, use_diff=False): name = 'voc_' + year + '_' + image_set if use_diff: name += '_diff' imdb.__init__(self, name) self...原创 2019-06-18 11:05:17 · 249 阅读 · 0 评论