深度学习
china026
这个作者很懒,什么都没留下…
展开
-
广播机制是怎么回事?
#广播机制的运用#需求:将一个形状为13x13x3x2的特征图每一个点位表示的2维向量,与10x2 十个二维向量按位相乘后求和。#广播机制的实质:广播机制是内容复制和按位运算,先把两个tensor的形状复制到一样,然后按位运算。#比如a=4x1x3和b=5x3之间做位运算,首先对比右边的形状,相同。然后对比倒数第二个,把A的1x3复制5份,变成4x5x3.再把B的5x3复制4份,变成4x...原创 2019-03-07 21:31:15 · 1376 阅读 · 0 评论 -
yolo v3难点解析
1.特征图点位本身的坐标与点位上向量表示的坐标有什么联系?前者还原到原图,表示单元格中心点。后者是真实框或者预测框的中心点。在制作标签时,是把目标框归一化之后的中心点,乘以特征图尺寸取整之后映射到特征图点位上。这样的联动关系表示框中心点肯定就在单元格中心点附近,落在单元格内部。2.在制作标签时,同一个真实框,会不会被写入到不同尺度层或者同一尺度层不同anchor通道?为什么真实框与anch...原创 2019-03-12 21:33:44 · 1061 阅读 · 0 评论 -
多维掩膜的使用方法
掩膜是用来从特征图中选取特定元素的工具。把掩膜放到原图引索里面,可以起到指示通道,指示坐标的作用。掩膜选取哪个通道,就把它放到原图对应通道的引索位置。import numpy as np#掩膜的用法#1.想把第0张图片,第一列所有大于0的2维向量给提出来a=np.random.normal(size=(5,4,2))mask=a[:,:,0]>0#锁定该区域,>0转化为...原创 2019-03-06 22:49:59 · 333 阅读 · 0 评论 -
control_flow_ops.while_loop函数循环
def loop_body(b, ignore_mask): true_box = tf.boolean_mask(y_true[l][b,...,0:4], object_mask_bool[b,...,0]) iou = box_iou(pred_box[b], true_box) best_iou = K.max(iou, axis=-1) ignore_m...原创 2019-03-06 21:14:38 · 3077 阅读 · 1 评论 -
tf.data 读取batch的完整实例
步骤:1.读取原始数据集2.在py_func中进行数据预处理,在map_batch中对数据打包,生成nextelement。3.构造迭代器4.获得迭代器的handle(初始地址)5.每次run一下nextelement。在数据集遍历完一遍之后,要初始化一下迭代器。#通过txt建立原始数据集train_dataset = tf.data.TextLineDataset("./dat...原创 2019-03-08 19:29:16 · 2016 阅读 · 0 评论 -
fastrcnn、yolo输出层的比较,以及anchor是啥
一、Fastrcnn里的anchor是啥https://blog.csdn.net/as472780551/article/details/81227408所谓anchor,就是特征图上的点预测的大小和长宽比例不同的K个框,这些框以该点对应到原图上的坐标点为中心。在Fastrcnn中,一个点预测9个框(9个anchor),这9个框的大小和比例都是事先设定好的。二、Fastrcnn...原创 2019-02-27 23:00:02 · 2124 阅读 · 0 评论 -
开了batch_norm,训练集acc很高,而测试集acc很低怎么解决
因为batch_norm的两个平移缩放参数在训练的时候没有更新,需要手动更新一下step = tf.get_variable("step", [], initializer=tf.constant_initializer(0.0), trainable=False) optimizer = tf.train.GradientDescentOptimizer(learning_rate=0....转载 2019-02-27 20:37:44 · 5939 阅读 · 1 评论 -
finetune
finetune的含义是获取预训练好的网络的部分结构和权重,与自己新增的网络部分一起训练。下面介绍几种finetune的方法。完整代码:https://github.com/toyow/learn_tensorflow/tree/master/finetune一,如何恢复预训练的网络方法一:思路:恢复原图所有的网络结构(op)以及权重,获取中间层的tensor,自己只需要编写新的网...原创 2019-02-18 13:45:02 · 1902 阅读 · 0 评论 -
如何查看训练好的网络里面想要恢复的op的名字
https://blog.csdn.net/ying86615791/article/details/76215363with tf.Graph().as_default() as g: saver=tf.train.import_meta_graph('./my_ckpt_save_dir/wdy_model-15.meta')#把原网络载入到新图中 listvar=g.g...原创 2019-02-17 19:21:42 · 198 阅读 · 0 评论 -
踩坑历程
1.载入文件时,由于解码方式的不同,字典中的字符串可能会发送变化,导致找不到正确的字符串。2.找不到源码,在terminal里面,python环境下 输入hlep(slim.conv2),会出来函数的地址。3.return 的时候,会把返回的所有元素组成一个tuple (image) (image,y_true)当返回一个元素时,image的类型就是只含有一个元素的tuple...原创 2019-02-14 21:24:17 · 154 阅读 · 0 评论 -
有用的网站
数据集下载网站:http://dataju.cn/Dataju/web/homefinetune:https://blog.csdn.net/Alienge/article/details/81012363查重:https://www.paperyy.com/member_new/thesis/post.aspx获取文件的权限https://jingyan.baidu....原创 2019-02-14 20:21:12 · 307 阅读 · 0 评论 -
损失函数里的from_logits=False是什么意思
logits表示网络的直接输出 。没经过sigmoid或者softmax的概率化。from_logits=False就表示把已经概率化了的输出,重新映射回原值。log(p/(1-p))原创 2019-03-11 15:27:12 · 13746 阅读 · 0 评论