![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
薛定谔的智能
这个作者很懒,什么都没留下…
展开
-
一些数据增强手段
1.mixupdef mixup_data(x, y, alpha=1.0, use_cuda=True): '''Compute the mixup data. Return mixed inputs, pairs of targets, and lambda''' if alpha > 0.: lam = np.random.beta(alpha, alpha) else: lam = 1. batch_size = x.si原创 2021-07-15 11:51:20 · 168 阅读 · 0 评论 -
Atss generate_anchors python+c++写法
图片借鉴了https://blog.csdn.net/sinat_33486980/article/details/81099093,如有侵权,联系我删除首先产生16x16大小的anchor,在按照1:2,1:1,2:1三种比例进行变换。每一个在进行三种比例的变换,基本可以覆盖掉原图要检测目标的大小了# ----------------------------------...原创 2019-01-24 14:47:38 · 526 阅读 · 0 评论 -
水印去除(基于nosie2noise优化 代码+模型)
github链接针对noise2nosie进行改造:1.加深网络,使用空洞卷积;2.修改loss函数.class L0Loss(nn.Module): """High dynamic range loss.""" def __init__(self, eps=1e-8, nb_epochs=10): """Initializes loss with numerical stability epsilon.""" super(L0Loss,原创 2020-10-30 17:35:02 · 6408 阅读 · 10 评论 -
从attention到Transformer+CV中的self-attention
1.Position encoding其也叫做Position embedding,由于Transformer模型没有使用RNN,故Position encoding(PE)的目的就是实现文本序列的顺序(或者说位置)信息而出现的。代码实现如下:输入batch内的词位置,输出是batch内的每个词的位置embedding向量.class PositionalEncoding(nn.Module): def __init__(self, d_model, max_seq_len):原创 2020-10-23 17:17:32 · 2850 阅读 · 1 评论 -
pytorch实现常用的一些即插即用模块(长期更新)
1.可分离卷积#coding:utf-8import torch.nn as nnclass DWConv(nn.Module): def __init__(self, in_plane, out_plane): super(DWConv, self).__init__() self.depth_conv = nn.Conv2d(in_channels=in_plane, out_ch原创 2020-09-18 08:59:52 · 2743 阅读 · 3 评论 -
目标检测矩形框与polygon数据增加--裁剪,拓展,旋转
import cv2from PIL import Imageimport torchvision.transforms.functional as FTimport randomdef find_intersection(set_1, set_2): """ Find the intersection of every box combination between ...原创 2020-03-15 10:11:50 · 1697 阅读 · 0 评论 -
SSD300网络结构(pytorch)+多尺度训练与测试
一.如图是预测框的相应feature map其中anchor的长宽关系,s就是上图中的scale,a就是上图中的anchor ratio二.代码主要由三部分组成1.vgg作为基础网络要注意的是作者对38*38*512进行L2正则化,并用一个可学习参数调节通道权重2.增加大目标检测网络3.输出包括预测框的偏移量输出与分类偏移量计算误检...原创 2020-03-15 09:21:17 · 6743 阅读 · 0 评论 -
resnet系列+mobilenet v2+pytorch代码实现
一.mobilenet v21.采用inverted residual,与resnet不一样的是通道1X1卷积先变宽->卷积提特征->1X1卷积变窄,因为经过1x1的卷积扩大通道数以后,可以提升抽取特征的能力,图1所示。2.最后不采用Relu,而使用Linear代替,因为降维后特征丢失部分,如果采用Relu还会丢失,图2所示. 图1 inver...原创 2019-11-06 17:12:23 · 2562 阅读 · 4 评论 -
RNN知识+LSTM知识+encoder-decoder+ctc+基于pytorch的crnn网络结构
一.基础知识:序列特点就是某一步的输出不仅依赖于这一步的输入,还依赖于其他步的输入或输出.1.RNN:xt不止与该时刻输入有关还与上一时刻的输出状态有关,而第t层的误差函数跟输出Ot直接相关,而Ot依赖于前面每一层的xi和si,?≤?i≤t,故存在梯度消失或梯度爆炸的问题,对于长时序很难处理.所以可以进行改造让第t层的误差函数只跟该层{si,xi}有关.2.LSTM:传统R...原创 2019-09-14 11:58:34 · 5229 阅读 · 0 评论 -
pytorch实现Dropout与正则化防止过拟合
numpy实现dropout与L1,L2正则化请参考我另一篇博客https://blog.csdn.net/fanzonghao/article/details/81079757pytorch使用dropout与L2import torchimport matplotlib.pyplot as plttorch.manual_seed(1) # Sets the seed...原创 2019-05-19 13:45:26 · 604 阅读 · 0 评论 -
pytorch基础知识+构建LeNet对Cifar10进行训练+PyTorch-OpCounter统计模型大小和参数量+模型存储与调用
整个环境的配置请参考我另一篇博客。https://blog.csdn.net/fanzonghao/article/details/81154434中文文档:https://pytorch-cn.readthedocs.io/zh/latest/package_references/torch/#torchsplit一. 基础知识1.tensorimport torch as t...原创 2019-05-11 15:47:06 · 10640 阅读 · 0 评论 -
深度学习可视化的一些工具+pytorch实现回归与卷积可视化
线性回归的损失函数和梯度更新如下图:一,numpy实现线性回归梯度下降import numpy as npimport matplotlib.pyplot as pltdef get_fake_data(batch_size=8): ''' 产生随机数据:y=x*2+3,加上了一些噪声''' x = np.random.rand(batch_size, 1) * ...原创 2019-05-12 16:13:23 · 1768 阅读 · 2 评论 -
pytorch利用rnn通过sin预测cos 利用lstm预测手写数字
一.利用rnn通过sin预测cos1.首先可视化一下数据import numpy as npfrom matplotlib import pyplot as pltdef show(sin_np,cos_np): plt.figure() plt.title('Sin and Cos', fontsize='18') plt.plot(steps, sin_n...原创 2019-08-10 12:12:37 · 1438 阅读 · 0 评论 -
pytorch数据预处理
一,数据加载数据路径:#coding:utf-8import torch as tfrom torch.utils import dataimport osfrom PIL import Imageimport numpy as npclass DogCat(data.Dataset): def __init__(self, path): imgs ...原创 2019-01-18 17:32:42 · 3077 阅读 · 0 评论