深度学习
文章平均质量分 67
五四三两幺-发射!
这个作者很懒,什么都没留下…
展开
-
onnx模型加入resize op
my code:# -*- coding: utf-8 -*-import numpy as npimport onnxfrom onnx import helperfrom onnx import AttributeProto, TensorProto, GraphProtoimport onnxruntime.backend as backendimport cv2import onnxruntime as ortimport matplotlib.pyplot as plt.原创 2021-09-03 16:07:43 · 2324 阅读 · 0 评论 -
简单理解nvidia tensorRT模型量化原理
参考资料:某人的量化原理笔记https://blog.csdn.net/sinat_31425585/article/details/101607785某人对int8比较详细的介绍https://zhuanlan.zhihu.com/p/58182172某人对ncnn的量化原理和源码理解(ncnn量化是基于tensorRT改进的)https://zhuanlan.zhihu.com/p/72375164一、两张图粗糙理解量化思路一句话把原始值等比例映射到-127~127, 以便.原创 2021-06-29 11:14:24 · 1554 阅读 · 1 评论 -
SiamFC、RPN系列中样本对pair(模板图和搜索图)生成方式
准备数据集时,需要exemplar图和search图(或称为instance图),对应大小为exemplar_size(比如127)和search_size(比如255)这种处理有两种形式第一种,处理原始数据集阶段:(参考https://github.com/STVIR/pysot/blob/master/training_dataset/vid/par_crop.py) 对于原...原创 2020-01-17 15:44:28 · 1256 阅读 · 5 评论 -
从源码解析YOLOv3的损失函数
损失函数源码参考这里yolo_layer.c本文参考这里和这里yolo_layer.c中的delta指的是对网络层原始输出y'的负梯度, delta=-gradient总的来说,loss可分为loss_obj, loss_noobj, loss_cls, loss_coor4个部分, 前3个部分都用到了BCE(binary cross entropy)(网上很多复现的代码中, 损失和原文是有...原创 2019-12-17 17:14:41 · 7128 阅读 · 13 评论 -
对LSTM中间变量形状shape的理解, 附keras中LSTM的各个变量的shape理解
假设输入的shape是[bs, length, d], bs是批数量, length是预定义的最大序列长度, d是序列中每个step的维度(对于图像序列,可以理解为每一帧的特征向量维度).下面说对于bs中1个样本的情况, 也就是shape为[1, length, d]LSTM(或者RNN)有多个cell, 1个cell对应1个step(1个时刻的状态), 这些cell之间的网络层是共享的, ...原创 2019-11-15 15:23:49 · 6313 阅读 · 7 评论 -
starGAN的笔记(代码)
一、图片和标签融合输入CNN:把标签转为one_hot(记为c), 维度是类别的个数, 假设是5个类别, 那么x.size()==>[nb, cn, h, w] (cn是图片通道)y.size()==>[nb, 1]c.size()==>[nb, 5]在generator的forward时, 把c扩展到四个维度(记为c_expand), 第3 4维度值和x一样首先通过...原创 2018-01-25 21:12:32 · 2989 阅读 · 7 评论 -
YOLO v2从原理到tensorflow2复现
目录原理篇:一、YOLO v1回顾二、YOLO v2介绍代码篇三、YOLO v2的tensorflow2实现原理篇:一、YOLO v1回顾下图是YOLO v1的整体网络框架图:●主要的检测思路: 1.首先使用CNN对输入图片提取出尺寸为S*S的特征图,特征图上每个像素点映射回原图就表示原图的1个区域,所以该特征图可以把原图分成S*S个网格区域。...原创 2019-11-07 17:52:00 · 3745 阅读 · 4 评论 -
CornerNet源码中对_decode函数(最后的输出处理)的理解
文章: https://arxiv.org/pdf/1808.01244.pdf源码链接: https://github.com/princeton-vl/CornerNet.git, 基于Pytorch实现_decode函数位于: CornerNet/models/py_utils/kp_utils.py中以往的目标检测框架Faster RCNN, YOLO, SSD之类的都需要在网络中生...原创 2019-04-26 10:18:48 · 1442 阅读 · 3 评论 -
InforGAN笔记
InforGAN笔记Purpose: 通过非监督学习得到可分解的特征表示.Motivation:由于G使用噪声z的时候没有加任何的限制, 所以1z是在以一种高度混合的方式被使用, 2z的任何一个维度都没有被明显的表示数据的一个特征(即我们不知道什么样的噪声可以生成数字1,什么样的噪声可以生成数字3...)Solution:作者在生成器的输入中, 除了z之外还增加了一个隐含编码c(也是随机的)...原创 2018-06-07 21:06:08 · 1328 阅读 · 0 评论 -
把vgg-face.mat权重迁移到pytorch模型
最近使用pytorch时,需要用到一个预训练好的人脸识别模型提取人脸ID特征,想到很多人都在用用vgg-face,但是vgg-face没有pytorch的模型,于是写个vgg-face.mat转到pytorch模型的代码#!/usr/bin/env python2# -*- coding: utf-8 -*-"""Created on Thu May 10 10:41:40 2018...原创 2018-05-17 11:00:39 · 3267 阅读 · 7 评论 -
faster-rcnn中,对RPN的理解
先放两张图,上面是原文中对RPN的原理说明;下图是k个anchor boxes(k=9)的生成。原文中rcnn部分的截图(上面anchor boxes示意图都是转自其他人的博客)anchor机制:特征图上的一个点对应原图的一个小区域(比如上图中的蓝色正方形),在这个小区域上可以生成k个anchor boxes(所有anchor boxes的中心点坐标是一样的,就是对应原图中这...原创 2017-05-28 00:45:55 · 59330 阅读 · 49 评论 -
tensorflow从已经训练好的模型中,恢复(指定)权重(构建新变量、网络)并继续训练(finetuning)
之前已经写了一篇《Tensorflow保存模型,恢复模型,使用训练好的模型进行预测和提取中间输出(特征)》,里面主要讲恢复模型然后使用该模型假如要保存或者恢复指定tensor,并且把保存的graph恢复(插入)到当前的graph中呢?总的来说,目前我会的是两种方法,命名都是很关键!两种方式保存模型,1.保存所有tensor,即整张图的所有变量,2.只保存指定scope的变量原创 2017-07-27 18:18:45 · 46002 阅读 · 21 评论 -
CNN中使用SVM进行分类(keras的实现)
相关理论可以看这篇文章Deep Learning using Linear Support Vector Machines,ICML 2013主要使用的是SVM的hinge loss形式的损失函数原始的SVM的损失:(公式图片截取自开头的论文)SVM的hinge loss形式的损失:(公式图片截取自开头的论文)这里解决的是二分类问题,多分类的话和softmax一样,简单说...原创 2017-05-07 20:03:49 · 44464 阅读 · 31 评论