- 博客(19)
- 资源 (18)
- 论坛 (2)
- 收藏
- 关注
原创 tf.train.AdamOptimizer()函数解析
tf.train.AdamOptimizer()函数是Adam优化算法:是一个寻找全局最优点的优化算法,引入了二次方梯度校正。tf.train.AdamOptimizer.__init__( learning_rate=0.001, beta1=0.9, beta2=0.999, epsilon=1e-08, use_locking=False, name='Adam')...
2019-03-31 19:09:36
28131
8
原创 tf.nn.softmax_cross_entropy_with_logits()函数解析(最清晰的解释)
最近学习中碰到了以前学过的tf.nn.sigmoid_cross_entropy_with_logits()函数,特此记录。tf.nn.sigmoid_cross_entropy_with_logits()函数用于计算交叉熵。tf.nn.sigmoid_cross_entropy_with_logits( _sentinel=None, labels=None, logits=Non...
2019-03-31 18:46:14
5787
2
原创 tf.reduce_mean()函数解析(最清晰的解释)
最近学习中碰到了以前学过的tf.placeholder()函数,特此记录。tf.reduce_mean 函数用于计算张量tensor沿着指定的数轴(tensor的某一维度)上的平均值,主要用作降维或者计算tensor(图像)的平均值。tf.reduce_mean( input_tensor, axis=None, keep_dims=False, name=None, red...
2019-03-31 15:29:11
16437
3
原创 tf.placeholder()函数解析(最清晰的解释)
最近学习中碰到了以前学过的tf.placeholder()函数,特此记录。tf.placeholder( dtype, shape=None, name=None)参数:dtype:数据类型。常用的是tf.float32,tf.float64等数值类型shape:数据形状。默认是None,就是一维值,也可以多维,比如:[None,3],表示列是3,行不一定n...
2019-03-31 15:03:08
8418
原创 python reshape函数参数-1(X.reshape(X.shape[0], -1).T)
近来在看吴恩达深度学习作业的时候,看到这么一行代码,发现网上说的清楚的文章比较少,特此记录。X.reshape(X.shape[0], -1).T举例子说明一下就清楚是怎么回事了。例子1:>>> X.shape(209, 64, 64, 3)我们假设x的shape是(209, 64, 64, 3)的。>>> X.shape[0]209然后...
2019-03-30 21:48:51
13456
25
原创 np.dot()、np.outer()、np.multiply()、*函数解析(最清晰的解释)
这两天在看吴恩达深度学习作业的代码时,碰到了np.dot()、np.outer()、np.multiply()、*等四个函数,特此记录。1、np.dot()如果碰到的是秩为1的数组,那么执行的是对应位置的元素相乘再相加;如果遇到的是秩不为1的数组,那么执行的是矩阵相乘。但是需要注意的是矩阵与矩阵相乘是秩为2,矩阵和向量相乘秩为1。2、np.multiply()np.multiply()表示...
2019-03-30 20:06:48
1986
8
原创 tf.nn.batch_normalization()函数解析(最清晰的解释)
这两天在看batch normalization的代码时碰到了这个tf.nn.moments()函数,特此记录。# 用于最中执行batch normalization的函数tf.nn.batch_normalization( x, mean, variance, offset, scale, variance_epsilon, name=...
2019-03-30 14:38:30
10558
2
原创 tf.identity()函数解析(最清晰的解释)
这两天看batch normalization的代码时,学到滑动平均窗口函数ExponentialMovingAverage时,碰到一个函数tf.identity()函数,特此记录。tf.identity( input, name=None )#Return a tensor with the same shape and contents as input.#返回一个te...
2019-03-30 14:01:52
8556
原创 tf.train.ExponentialMovingAverage()函数解析(最清晰的解释)
近来看batch normalization的代码时,遇到tf.train.ExponentialMovingAverage()函数,特此记录。TensorFlow官网上对于这个方法的介绍:Some training algorithms, such as GradientDescent and Momentum often benefit from maintaining a moving ...
2019-03-29 22:14:34
5503
27
原创 tf.nn.moments()函数解析(最清晰的解释)
这两天在看batch normalization的代码时碰到了这个tf.nn.moments()函数,特此记录。# 用于在指定维度计算均值与方差tf.nn.moments( x, axes, shift=None, # pylint: disable=unused-argument name=None, keep_dims=False)参数:x:一...
2019-03-29 20:49:56
9961
2
原创 python assert函数解析(最清晰的解释)
python assert的作用:Python 官方文档解释https://docs.python.org/3/reference/simple_stmts.html#assert“Assert statements are a convenient way to insert debugging assertions into a program”assert断言语句是将调试断言插入程序的...
2019-03-29 09:45:08
4142
原创 tf.shape(x)、x.shape、x.get_shape()函数解析(最清晰的解释)
最近看到了tf.shape(x)、x.shape和x.get_shape()三个函数,不知道他们的差别,所以记录一下。import tensorflow as tfx = tf.constant([[0,1,2],[3,4,5],[6,7,8]])print(type(x.shape))print(type(x.get_shape()))print(type(tf.shape(x))...
2019-03-28 22:41:13
5328
原创 tf.cond()函数解析(最清晰的解释)
近期看batch_normalization的代码时碰到一个函数tf.cond(),特此记录。首先看一下函数的说明文档:format:tf.cond(pred, fn1, fn2, name=None)Return :either fn1() or fn2() based on the boolean predicate `pred`.(注意这里,也就是说'fnq'和‘fn2’是两个函数...
2019-03-28 21:51:20
5876
1
原创 slim.arg_scope()函数解析(最清晰的解释)
Tensorflow-slim作为一种轻量级的tensorflow库,使得模型的构建,训练,测试都变得更加简单,其主要目的是来做所谓的“代码瘦身”。在slim库中对很多常用的函数进行了定义,slim.arg_scope()是slim库中经常用到的函数之一。slim.arg_scope常用于为tensorflow里的layer函数提供默认值,以使构建模型的代码更加紧凑苗条(slim)。函数的定...
2019-03-26 22:17:49
3241
原创 tf.name_scope()、tf.variable_scope()函数解析(最清晰的解释)
最近在看tf.slim实现的inception_v1的代码,发现一个函数tf.variable_scope()不太清楚,查询到网上多对比name和variable,特意记录一下。论文翻译:GoogLeNet - Going Deeper with Convolutions全文翻译代码实现1 tf.name_scope(‘scope_name’)tf.name_scope 主要结合 tf....
2019-03-26 20:22:03
2414
翻译 Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift全文翻译
Inception v2Sergey Ioffe,Christian SzegedyBatch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift - 原文论文解读精读深度学习论文(3) Batch Normalization0 摘要由于训练过程中各层输入的分布...
2019-03-26 17:44:06
5897
1
原创 tf.concat()函数解析(最清晰的解释)
tf.concat的官方解释tf.concat( values, axis, name='concat')其中:values应该是一个tensor的list或者tuple,里面是准备连接的矩阵或者数组。axis则是我们准备连接的矩阵或者数组的维度。axis=0代表在第0个维度拼接axis=1代表在第1个维度拼接axis=-1表示在倒数第1个维度拼接负...
2019-03-25 16:03:01
3742
原创 trunc_normal = lambda stddev: tf.truncated_normal_initializer(0.0, stddev)解析
在读Inception代码的时候,遇到代码,import tensorflow as tfslim = tf.contrib.slimtrunc_normal = lambda stddev: tf.truncated_normal_initializer(0.0, stddev)分享一下它的工作原理。1、首先是引入TensorFlow模块2、lambda表达式,通常是在需要一个函...
2019-03-25 11:18:26
2234
原创 w10的 Google Tensorflow Object Detection API安装
近期学习《21个项目玩转深度学习:基于TensorFlow的实践详解》时遇到Google Tensorflow Object Detection API 安装的问题,特意来填坑,对于Windows系统的安装说一下个人遇到的问题以及解决办法。Tensorflow Object Detection API 是谷歌开放的一个内部使用的物体识别系统。2016年 10月,该系统在COCO识别挑战中名列第一...
2019-03-25 09:29:32
2199
李宏毅—1天搞懂深度学习(ppt,pdf以及精心整理的目录)
2019-04-11
超分辨率重建.zip
2019-06-02
批量rename图片——REname_images.zip
2019-04-13
机器学习的数学基础(高数,线代,概率,凸优化,斯坦福大学数学基础)
2019-04-11
我是管小亮 :)的留言板
发表于 2020-01-02 最后回复 2020-05-25
申请博客专家的详细要求是什么?
发表于 2019-08-23 最后回复 2019-08-26
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人 TA的粉丝