自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(72)
  • 收藏
  • 关注

原创 深度学习在超分辨率重建上的应用SRCNN,FSRCNN,VDSR,DRCN,SRGAN

转自:https://zhuanlan.zhihu.com/p/25532538https://zhuanlan.zhihu.com/p/50192019超分辨率技术(Super-Resolution)是指从观测到的低分辨率图像重建出相应的高分辨率图像,在监控设备、卫星图像和医学影像等领域都有重要的应用价值。SR可分为两类:从多张低分辨率图像重建出高分辨率图像和从单张低分辨率图像...

2019-02-26 11:28:14 10116 3

原创 python 维护

1. 报错:ModuleNotFoundError: No module named 'rle'2. pip 找不到,或者是与python路径不一致导致pip使用报错。

2024-04-08 13:29:59 153 1

原创 windows 深度学习环境部署

1. 根据显卡配置安装适合的CUDA,查看显卡配置可在显卡控制面板上查看,安装是否成功可通过nvidia-smi查看;2. 根据cuda安装合适的cudnn,需要注册NVIDIA。3. onnxruntime-gpu与cuda版本关系。

2023-09-24 17:51:17 142

原创 运维技术(一)

块(block):操作系统文件存取的最小单位,为多个连续扇区(8个),4kb,即存储 文件小于4kb也需要占用4kb存储,为系统最小存储单位;fat16,fat32:最早windows文件系统,单个文件<2GB,文件兼容性很好,是Linux挂载默认的文件系统;NTFS: 支持文件加密,采用日志详细记录磁盘读写,支持数据恢复,不再受4G限制,但mac只读;硬连接: inode号码一致,存储block一致,不支持目录文件夹;删除源文件,对硬连接无影响,对软连接有影响;

2023-08-27 18:23:06 610

原创 [医学影像数据处理] dicom 转 nii

医学影像数据格式转换

2022-11-24 15:24:02 432 1

原创 权重初始化-kaming

kaiming初始化的推导

2022-04-19 09:25:59 229

原创 分类器评价指标

混淆矩阵实际样本 预测结果 正例 反例 正例 TP(正预测为正,真正) FN(正预测为负,假负) 负例 FP(负预测为正,假正) TN(负预测为负,真负) 1.准确率TP和TN:表示预测正确的2.1. 查准率:(精确率),预测为真占预测为真的百分比,表示对正样本的预测准确程度(预测为正/所有为正的预测)。2.2. 查全率:(召回率),实际样本为正中预测为正的比例,(预测为正/所有为正的样本)2.3 F1, 兼顾精确率和召

2022-03-21 16:12:26 1455

原创 【优化策略】解决过拟合——正则化和权重衰减

相比mxnet1.5.0:多了GroupNorm;Deconvolution有变化;UpSampling,增添了最近邻方式,仅支持2D,NCHW

2022-03-13 15:53:21 2452

原创 【显存不足解决方法】梯度累积

梯度累积:参考数据并行的方式,梯度累积简单理解是把并行的数据替换成串行的数据传入,可以在显卡数量有限的情况下使用,还没有了解是否影响收敛速度。具体实现:正常训练过程:outputs = model(data_batch)loss = loss_function(outputs, labels)optimizer.zero_grad()loss.backward()optimizer.step()梯度累积:accumulation_steps = 4outputs =

2022-02-07 13:18:28 2101

原创 pytorch训练结果 转 onnx

pytorch训练结果转可部署onnximport torchimport torchvisioninput_data = torch.randn(1, 3, 224, 224)model = torchvision.models.resnet18(pretrained=True)input_names = [ "input" ]output_names = [ "output"]torch.onnx.export(model, input_dat

2022-01-19 10:16:14 1058

原创 onnx 转 mxnet 保存静态文件

将onnx转为mxnet可读取的静态模型及参数

2022-01-19 10:09:34 515

原创 Cyclegan 具体实现值得关注的问题

论文链接:pytorch开源代码:1.应用场景不属于强监督,图像之间无需完全匹配,可实现图像风格转换。2.数据处理 数据处理包括:数据扩充和数据归一化3.网络结构包括生成器及判别器,生成器用来实现图像风格A与图像风格B之间的相互转换,生成器有两个分别为图像风格A->图像风格B的转换和图像风格B->图像风格A的转换;判别器也有两个分别判断两个生成器转换后图像与目标图像比较的真假。3.1生成器 生成器网络...

2021-10-10 14:34:12 1026

原创 训练nnUNet CUDA error: device-side assert triggered 报错

在使用pytorch训练网络时,有可能会出现这个错误。看了网上一些解决方案,确实是因为数据标签问题导致的。我的情况是使用nnUNet时报错的,比如我在标签描述中写了三个类,可是输入的数据标签可能有四类或者五类,这样很明显输入数据与类别不一致。解决方法:在输入数据中确定标签类别,保持一致。...

2021-07-06 10:32:15 486

原创 python @classmethod

继承体系中的多个类都能以各自所独有的方式来实现某个方法。通过@classmethod,可以用一种与构造器类似的方式来构造类的对象。 class Data_test(object): day=0 month=0 year=0 def __init__(self,year=0,month=0,day=0): self.day=day self.month=month...

2021-06-20 22:06:20 2811

原创 python中的__init__

__init__() 是类中特殊的实例构造方法,在创建类时,我们可以手动添加一个 __init__() 方法,该方法是一个特殊的类实例方法,称为构造方法(或构造函数)。构造方法用于创建对象时使用,每当创建一个类的实例对象时,Python解释器都会自动调用它。...

2021-06-06 21:18:38 651 1

转载 Python中的super()

3. 用super 初始化父类,解决由__init__导致的问题 super() 函数是用于调用父类(超类)的一个方法。 super() 是用来解决多重继承问题的,直接用类名调用父类方法在使用单继承的时候没问题,但是如果使用多继承,会涉及到查找顺序(MRO)、重复调用(钻石继承)等种种问题。 MRO 就是类的方法解析顺序表, 其实也就是继承父类方法时的顺序表。钻石继承: 子类继承自两个单独的超类,而两个超类又继承自同一个公共基类。 class MyBaseC...

2021-06-06 18:03:16 277

原创 python中的类与继承

为什么要使用面向对象?初学时认为函数就可以满足功能的实现,没必要使用面向对象,随着日常需求的增长和代码量的增多,发现面向对象确实太有必要了。否则代码管理很费劲,变更容易

2021-06-06 17:52:39 227 2

原创 C++编译报错.exe文件无法打开

C++编译中有时候会报错.exe文件无法打开,这个问题引起的方式还没有很了解怎么关也关不上的时候,可以重命名.exe文件;如果电脑正在执行文件可以关闭,可以注销电脑;或者是 cmd 查询正在执行的exe进程TASKLIST,找到对应的ID,Tasklist/pid ID,如果提示还是关不掉,就taskkill /pid ID /M,这种应该比第二种方便一些,不影响其他程序运行。...

2020-11-30 10:52:06 2531

原创 image处理

通过transform.resize()可以处理3D图像,但是图像值变化,具体原因还没有详细查找,cv2.resize貌似只能处理2D图像

2020-08-04 14:52:15 170

原创 MXNet gluon 加载已有模型迁移学习

from mxnet.gluon.model_zoo import vision as modelspretrained_net = models.resnet18_v2(pretrained = True) #加载训练后的参数# 模型分为两部分 features和classifierfinetune_net = model.resnet18_v2(classes=2) #新建的一个网络finetune_net.features = pretrained_net.features #替换已有模型.

2020-07-05 15:08:09 167

原创 NDArray的简单操作

NDArray是MXNet中的一种数据操作工具,类似于Numpy.创建:x =nd.arange(6)[0. 1. 2. 3. 4. 5.]x = nd.zeros((2,3))[[0 0 0][0 0 0 ]]根据列表生成NDArraylist1=[1,2,3,4]x=nd.array(list1)随机生成NDArraynd.random.normal(0,1,shape=(3,4))随机生成3*4矩阵,均值=0,方差=1运算:在两个数据sh

2020-06-28 22:16:49 332

原创 训练集收敛,验证集评价指标远低于训练集评价指标

1.图像没有/255.0当图像没有除以255时,会导致在模型的训练损失下降,且收敛效果很好的情况下,验证集的泛化性较差,具体表现是评价指标几乎没有提升,也不是回落的过程。(自己写的读取数据,一定不要忘了/255.0)...

2020-06-23 09:00:05 1911

原创 【网络结构】轻量级网络模型shuffleNet

推荐一下看到的比较好的文章:『高性能模型』轻量级网络ShuffleNet_v1及v2:https://www.cnblogs.com/hellcat/p/10318630.html个人理解与MoblieNet之间的区别在于分组卷积后的操作MobileNet包括depthwise convolution和pointwise convolution两部分,depthwise convolution将输入特征分组卷积,减少每组卷积特征通道数,从而减少参数量和计算量;pointwise convo.

2020-06-14 13:37:32 511

原创 【网络结构】更深网络结构 VS 更宽网络结构

网络深度对深度学习模型性能有什么影响?https://zhuanlan.zhihu.com/p/63560913表达能力强逐层学习特征增加感受野网络宽度对模型性能有什么影响?https://zhuanlan.zhihu.com/p/64219398学习丰富的特征...

2020-06-09 18:30:42 747

原创 MxNet 多分类问题报错RuntimeError: simple_bind error. Arguments:

RuntimeError: simple_bind error. Arguments:data: (1, 1, 256, 256)softmax_label: (1, 1, 5, 1)Error in operator 2a_branch_fusion: [09:08:59] /usr/local/mxnet-1.4.0/3rdparty/mshadow/../../src/operato...

2020-03-12 09:37:15 1780

转载 打印 a 到 z 中任取 3 个元素的组合

现在有 a 到 z 26 个元素, 编写程序打印 a 到 z 中任取 3 个元素的组合(比如 打印 a b c ,d y z等)分析:大家看看我这么做行不char a, b, c;for(a = 'a'; a<='z'; a++) for(b= a+1; b<='z'; b++) for(c = b+1; c<='z'; c++) ...

2019-07-19 12:27:09 666

原创 在github中上传文件(图片)

上传文件上传本地文件上传后复制当前网页地址其中填入之前复制的网址/文件名加后缀此时文件上传成功!但是想把文件直接显示出来,就要写个简单的.md 文件了图像的格式:![文件名](https://github.com/***/***/blob/master/文件名)...

2019-07-07 21:43:48 5928 2

原创 IDN-Fast and Accurate Single Image Super-Resolution via Information Distillation Network信息蒸馏网络

Fast and Accurate Single Image Super-Resolution via Information Distillation NetworkCVPR2018github(caffe):https://github.com/Zheng222/IDN-Caffe网络结构以特征提取块、多个信息蒸馏块(progressively distill residual i...

2019-05-14 22:33:41 2951 3

原创 NTIRE2018比赛冠军 八倍图像超分辨率 DBPN-Deep Back-Projection Networks For Super-Resolution

paperpytorch//caffeNTIRE2018比赛中8倍的bicubic第一名,PIRM2018比赛中Region 2的第一名主要是采用了误差反馈机制,类似于在每个深度下做CycleGAN以上采样单位为例:输入低分辨率image,经过Deconv上采样得到H0,H0经过Conv得到L 大小的L0,计算输入低分辨率图像与通过Deconv-Conv生成的低分辨率图像之...

2019-05-14 12:20:53 1241

转载 EDSR以后的超分辨率综述(2018年)

1. DBPN(Deep Back-Projection Networks For Super-Resolution, CVPR2018)这篇文章提出了一种迭代地计算上采样和下采样投影误差的错误反馈机制,对重建过程进行引导以得到更好的结果。文章提出的上采样和下采样映射单元如下图所示。以上采样单元为例。先将输入的低分辨率尺寸映射到高分辨率特征图,接着再将这个高分辨率的特征图映射回输入...

2019-05-09 15:16:39 4876 1

转载 导向滤波

论文:http://kaiminghe.com/publications/eccv10guidedfilter.pdfhttps://blog.csdn.net/baimafujinji/article/details/74750283https://www.cnblogs.com/mightycode/p/8005514.html属于各向异性滤波,通过窗口中方差的大小区分边缘区域和平...

2019-05-05 19:36:13 403

原创 【网络结构】注意力机制Attention block

CSDN:https://blog.csdn.net/qq_40027052/article/details/78421155#t0计算机视觉中的Attention:https://zhuanlan.zhihu.com/p/32928645图像识别:基于位置的柔性注意力机制:https://zhuanlan.zhihu.com/p/33158614数字串识别:基于位置的硬性注意力机制:...

2019-04-17 12:11:22 3154

原创 GAN小结(BEGAN EBGAN WGAN CycleGAN conditional GAN DCGAN PGGAN VAEGAN)

断断续续看了生成对抗网络一些日子,下面把我比较感兴趣也算是我认为效果比较好的GAN进行简单梳理,其中会参考众多前辈的文章,主要包括1.EBGAN原文https://arxiv.org/pdf/1609.03126.pdf2.BEGAN原文:https://arxiv.org/abs/1703.10717代码:https://github.com/carpedm20/BEGA...

2019-04-16 15:22:00 2025

原创 在本地打开远端服务器上Tensorboard

链接:https://blog.csdn.net/index20001/article/details/82871634主要是在Xshell上开设侦听端口属性——ssh——隧道——添加源主机:127.0.0.1侦听端口:6006(可以先在远端服务器上tensorboard --logdir=logs一下,查看端口号)目标主机:目的端口号:6006最后主机上:http:/...

2019-04-11 11:18:01 1411

转载 tf.shape和tf.get_shape().as_list()

tf.shape()获取张量import tensorflow as tf import numpy as np a_array=np.array([[1,2,3],[4,5,6]])b_list=[[1,2,3],[3,4,5]]c_tensor=tf.constant([[1,2,3],[4,5,6]]) with tf.Session() as sess: pr...

2019-04-03 18:23:47 674

转载 最大似然估计与最大后验概率区别

https://blog.csdn.net/u011508640/article/details/72815981最大后验概率比最大似然估计多了先验概率对于这个函数:P(x|θ)输入有两个:x表示某一个具体的数据;θ表示模型的参数。如果θ是已知确定的,x是变量,这个函数叫做概率函数(probability function),它描述对于不同的样本点x,其出现概率是多少。...

2019-03-28 19:30:03 784

翻译 celebA数据集介绍

list_attr_celeba.txt文本中是人脸图像的标记包含:5_o_Clock_ShadowArched_Eyebrows 柳叶眉Attractive 吸引人的Bags_Under_Eyes 眼袋Bald 秃头Bangs 有刘海Big_Lips 大嘴Big_Nose 大鼻子Black_Hair 黑色头发Blond_Hair 金色的头发Blur...

2019-03-25 19:45:09 2700

转载 (机器学习)异常检测算法

异常检测算法流程:异常检测与监督学习的差异:多元高斯模型和原始模型之间的区别?原始模型使用较多,若存在特征相关情况可以采用x1/x2方式;计算成本较低;有较小的相关性训练集也没有问题。多元高斯模型,使用较少,在捕捉特征间的关系有优势;需要计算sigma的逆矩阵,计算量较大;有样本数量大于特征数量的限制,保证sigma矩阵可逆(同PCA)原始模型相乘也可以看做是...

2019-03-11 15:01:35 327

转载 K-Means聚类方法与EM算法之间的关系

初始目的  将样本分成K个类,其实说白了就是求一个样本例的隐含类别y,然后利用隐含类别将x归类。由于我们事先不知道类别y,那么我们首先可以对每个样例假定一个y吧,但是怎么知道假定的对不对呢?怎样评价假定的好不好呢?  我们使用样本的极大似然估计来度量,这里就是x和y的联合分布P(x,y)了。如果找到的y能够使P(x,y)最大,那么我们找到的y就是样例x的最佳类别了,x顺手就聚类了。但是我们...

2019-03-06 20:51:18 1611

转载 k-means 聚类的原理以及缺点及对应的改进

转自:https://www.cnblogs.com/yumoye/p/10332138.htmlhttps://blog.csdn.net/wxf_ou/article/details/75634107传统K-Means算法流程    首先我们看看K-Means算法的一些要点。    1)对于K-Means算法,首先要注意的是k值的选择,一般来说,我们会根据对数据的先验经验选择...

2019-03-06 16:31:32 9340 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除