学习笔记2019
一,图像的归一化处理:把图像矩阵的值归一化到[-1, 1]之间
img = (img / 255.0) * 2.0 - 1.0
二,python中打开文件,尤其学会用with的方式打开
1、w 写模式,它是不能读的,如果用w模式打开一个已经存在的文件,会清空以前的文件内容,重新写
w+ 是读写内容,只要沾上w,肯定会清空原来的文件
r 读模式,只能读,不能写,而且文件必须存在
r+ 是读写模式,只要沾上r,文件必须存在
a 追加模式,也能写,在文件的末尾添加内容
rb+、wb+、ab+,这种是二进制模式打开或者读取,一些音乐文件
link
三,python中f.read(), f.readline(),f.readlines()的区别:
read() 把文件内容作为一整个字符串输出
readline() 输出文件内容的一行
readlines() 输出一个list,每个元素为文件中的一行的字符串
四,python中zip()
zip([iterable, ...]) # python3中返回一个对象
五,python中的pickle模块的作用:
最常用的函数:dump(), load(), dumps(), loads()
# 以下两个针对文件
pickle.dump(obj, file [,protocol]) # 将obj对象序列化存入已经打开的file中,protocol表示的是序列化使用的协议
pickle.load(file) # 将file中的对象序列化读出
# 以下连个针对字符串
pickle.dumps(obj [,protocol]) # 将obj对象序列化为sting形式,而不是存入文件
pickle.loads(string)
六,tf.train.exponential_decay() 指数衰减法
tf.train.exponential_decay(learning_rate, global_step, decay_steps, decay_rate, staircase=False, name=None)
- global_step: 每处理一次batch_size的数据自加一
- staircase: 若为True,则学习率是离散间隔,即每decay_steps才衰减一次。若为False,则学习率衰减是一个连续的过程
七,tensorflow中Summary类:负责汇总数据并写入事件文件(event文件)
- tf.summary.xx(tags, values, collections=None, name=None)
- tf.summary.scalar() # 显示标量信息,例如loss, accuracy
- tf.summary.histogram() # 显示直方图信息,一般是训练过程中的变量
- tf.summary.distribution() # 显示分布图信息,例如weights分布
- tf.summary.merge_all() # 全部保存,用于tensorboard
- tf.summary.merge()
- tf.summary.FileWriter(path, sess.graph) # 保存图 可以调用add_summary()
link_1
link_2
图片引用自link_2
八, tensorflow中的Saver类
saver = tf.train.Saver(...variables..., max_to_keep) # variables:要保存的变量,max_to_keep: 保存的模型的个数
保存: saver.save(sess, ‘path’, global_step = step)
恢复: saver.restore(sess, ‘model_file_path’)
link