Tensorflow
超级无敌小小顺利
计算机视觉
展开
-
Keras模型基本流程
文章目录前言一、Keras流程二、Keras中的模型定义1.基于Sequential 类2.基于函数式API前言 目前打算看tensorflow.probability模块,但是发现整个都是适配Keras的,很多的例程也都是基于Keras的。所以借此机会学一下这个框架。一、Keras流程目前keras已经集成在了tf之中,默认的import方式如下所示,一般用到最多的就是layers层。tfk = tf.kerastfkl = tf.keras.layers# 定义模型network原创 2020-09-22 22:55:01 · 569 阅读 · 0 评论 -
tf.variable_scope中的reuse
一、两种scope:variable与nametf.variable_scope()是对变量进行命名管理,而tf.name_scope是对算子(op)进行命名管理,二者相互不影响。见下例:import tensorflow as tffor i in range(10): with tf.name_scope('test'): a = tf.constant([1]) b = tf.constant([1]) c = a + b .原创 2020-08-26 21:28:35 · 2459 阅读 · 0 评论 -
Tensorflow笔记4:学习率衰减策略tf.train.cosine_decay_restarts
TF在learning_rate_decay.py中提供了几种非常骚气的学习率下降方法,今天就来玩一玩。只需要简单的参数设定,就能够产生神奇的lr衰减效果。一、cosine_decay_restarts 在ICLR2016的论文**[Loshchilov & Hutter, ICLR2016], SGDR: Stochastic Gradient Descent with Warm Restarts**中介绍了Warm的学习率设计方法。简而言之就是衰减了但是还会回来,周期性地变化。使用方法原创 2020-07-24 16:44:30 · 2625 阅读 · 1 评论 -
Tensorflow笔记4:Saver
Saver类位于tf.train中,属于训练过程中要用到的方法,主要作用就是保存和加载save & restore ckpt。 最简单的保存应用举例:saver.save(sess, 'my-model', global_step=0) ==> filename: 'my-model-0'...saver.save(sess, 'my-model', global_step=1000) ==> filename: 'my-model-1000' 正常训练的过程应用:原创 2020-07-23 23:19:25 · 455 阅读 · 0 评论 -
TensorFlow-Slim API 官方教程
https://blog.csdn.net/u014061630/article/details/80632736TF-Slim 模块是 TensorFlow 中最好用的 API 之一。尤其是里面引入的arg_scope、model_variables、repeat、stack。转载 2020-07-20 23:25:31 · 145 阅读 · 0 评论 -
Tensorflow笔记3:Variable
调用Variable类即可向Graph中添加变量。Variable在创建之后需要给定初始值,可以是任意type、shape的Tensor。一旦使用初始值完成了初始化,type和shape都固定,除非使用assign方法改变。一、Variable基本使用方法 给定了init_value并没有真正进行赋值,还需要初始化,初始化方法有两种:单变量手动初始化:每个Variable都有initializer操作,调用方法为:my_tensor = tf.constant([[1.0, 2.0], [原创 2020-07-20 16:10:44 · 276 阅读 · 0 评论 -
Tensorflow笔记2:Session
参考内容都出自于官方API教程tf.Session一、Session类基本使用方法 这里使用的是1.15版本,TF官方为了能够在2.0+版本中保持兼容,因此调用时使用了tf.compat.v1.Session。 定义:一个Session是对环境的封装,环境中包含执行/executed过的Operation和评估/evaluated过的Tensor。 一个Session会含有很多资源,例如Variable、QueueBase、RenderBase等。当Session运行结束后需要通过**Sess原创 2020-07-20 10:13:20 · 1497 阅读 · 0 评论 -
Tensorflow笔记1:Graph
参考内容都出自于官方API教程tf.Graph一、Graph类调用 这里使用的是1.15版本,TF官方为了能够在2.0+版本中保持兼容,因此调用时使用了tf.compat.v1.Graph。若安装的就是1.15版本,直接tf.Graph即可。 定义:一个Graph是一系列tf.Operation(表示计算单元)和tf.Tensor(表示operations之间的数据流单元)的组合。 在构建图时,系统已经默认有default Graph被注册,可以直接向默认图中添加操作。这个默认的图通过**tf原创 2020-07-19 17:34:49 · 421 阅读 · 0 评论 -
Tensorboard在网络训练中的Logger使用方法
做为神经网络训练中最常用的可视化工具,Tensorboard经常在Pytorch和Tensorflow框架中做为可视化工具。但是其使用的确是有点繁琐,所以开设了一个这样的专题,用于总结见过的工程里面的数据Logger设定方法。希望自己能够通过积累慢慢掌握这个工具。一、YOLO-Pytorch版中的Logger在陈老师这里做DAC比赛,让我有机会把YOLO工程整个撸了一遍。此工程中的数据保存...原创 2020-02-01 17:45:27 · 3801 阅读 · 0 评论