- 博客(414)
- 收藏
- 关注
转载 pytorch之---max()函数
形式: torch.max(input) → Tensor返回输入tensor中所有元素的最大值:a = torch.randn(1, 3)>>0.4729 -0.2266 -0.2085torch.max(a) #也可以写成a.max()>>0.4729形式: torch.max(input, dim, keepdim=False, out=None) ...
2019-06-14 19:46:03
2408
转载 pytorch之---max()函数
转载:https://blog.csdn.net/liuweiyuxiang/article/details/84668269
2019-06-14 19:43:54
248
转载 Pytorch---之scatter_ 理解轴的含义
scatter_(input, dim, index, src)将src中数据根据index中的索引按照dim的方向填进input中。>>> x = torch.rand(2, 5) >>> x 0.4319 0.6500 0.4080 0.8760 0.2355 0.2609 0.4711 0.8486 0.8573 0.1029 [torch.Flo...
2019-06-14 16:44:35
1392
转载 pytorch---之pin_memory
pin_memory就是锁页内存,创建DataLoader时,设置pin_memory=True,则意味着生成的Tensor数据最开始是属于内存中的锁页内存,这样将内存的Tensor转义到GPU的显存就会更快一些。主机中的内存,有两种存在方式,一是锁页,二是不锁页,锁页内存存放的内容在任何情况下都不会与主机的虚拟内存进行交换(注:虚拟内存就是硬盘),而不锁页内存在主机内存不足时,数据会存放在虚...
2019-06-14 11:24:51
10371
转载 pytorch---之torch.manual_seed()
torch.manual_seed(args.seed) #为CPU设置种子用于生成随机数,以使得结果是确定的if args.cuda:torch.cuda.manual_seed(args.seed)#为当前GPU设置随机种子;如果使用多个GPU,应该使用torch.cuda.manual_seed_all()为所有的GPU设置种子。---------------------作者:Flo...
2019-06-14 09:24:43
3940
原创 python之---子类父类属性之间的关系
class P(object): def __init__(self): self.value = 0 self.x = 1000 def get(self): print(self.value) print(self.b) return id(self.value)class C(P):...
2019-06-10 21:48:40
2146
转载 np.prod() 函数计算数组元素乘积等
转载:https://blog.csdn.net/Hero_Never_GIVE_UP/article/details/81114308
2019-06-09 21:12:54
1509
转载 Pytorch(0)降低学习率torch.optim.lr_scheduler.ReduceLROnPlateau类
当网络的评价指标不在提升的时候,可以通过降低网络的学习率来提高网络性能。所使用的类class torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer, mode='min', factor=0.1, patience=10, verbose=False, threshold=0.0001, threshold_mode='rel', cool...
2019-06-09 19:43:28
1458
转载 pytorch---之cudnn.benchmark和cudnn.deterministic
问题在很多情况下我们都能看到代码里有这样一行:torch.backends.cudnn.benchmark = true 1 torch.backends.cudnn.benchmark = true 而且大家都说这样可以增加程序的运行效率。那到底有没有这样的效果,或者什么情况下应该这样做呢?解决办法总的来说,大部分情况下,设置这个 fl...
2019-06-08 21:47:41
14926
转载 python之---Python深入06 Python的内存管理
作者:Vamei 出处:http://www.cnblogs.com/vamei 欢迎转载,也请保留这段声明。谢谢!语言的内存管理是语言设计的一个重要方面。它是决定语言性能的重要因素。无论是C语言的手工管理,还是Java的垃圾回收,都成为语言最重要的特征。这里以Python语言为例子,说明一门动态类型的、面向对象的语言的内存管理方式。对象的内存使用赋值语句是语言最常见的功能...
2019-06-08 13:21:01
230
转载 python--之Python内存监控模块memory_profiler测试
安装:pip install -U memory_profilerimport tensorflow as tffrom memory_profiler import profile a = tf.constant([[1,2,3]])b = tf.Variable([[4], [5], [6]])d = tf.matmul(a, b) @profile()de...
2019-06-08 13:13:42
845
转载 浅析贝叶斯神经网络
class VariationalDense: def __init__(self, n_in, n_out): self.W_mu = tf.Variable(tf.truncated_normal([n_in, n_out], stddev=stddev_var)) self.W_logsigma = tf.Va...
2019-06-05 13:22:10
1866
转载 信息熵
一.为什么使用log函数表示不确定性:1.不确定性函数f是概率P的减函数;2.两个独立符号所产生的不确定性应等于各自不确定性之和,即f(P1,P2)=f(P1)+f(P2),这称为可加性。同时满足这两个条件的函数f是对数函数,即。二.信息熵的公式:H(x) = E[I(xi)] = E[ log(2,1/P(xi)) ] = -∑P(xi)log(2,P(xi)) (i=1,2...
2019-06-05 13:03:36
1323
转载 np.random.choice的用法
import numpy as np# 参数意思分别 是从a 中以概率P,随机选择3个, p没有指定的时候相当于是一致的分布a1 = np.random.choice(a=5, size=3, replace=False, p=None)print(a1)# 非一致的分布,会以多少的概率提出来a2 = np.random.choice(a=5, size=3, replace=Fals...
2019-06-05 12:40:55
1404
原创 deeplab v3+---Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation
一.摘要:1.spp是什么?问题:分割我们提出了什么:1.deeplab v3+ 在deeplab v3的基础上加了一个简单的decoder模块来改善分割结果,尤其是对于边界区域2.我们采用xception当中的深度壳分离卷积,来应用到aspp和decoder模块中去,能够得到一个更好和更快的结果结果:我们证明了所提出的模型在PASCAL VOC 2012语义图像分割数...
2019-05-20 11:17:41
859
转载 Linux---之conda换源
windows下转载自:https://blog.csdn.net/dream_allday/article/details/80344511在清华源和中科大源之间自行选择1 添加清华源命令行中直接使用以下命令conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/...
2019-05-14 14:27:09
14558
1
转载 FCN
论文Fully Convolutional Networks for Semantic Segmentation 是图像分割的milestone论文。理清一下我学习过程中关注的重点。fcn开源代码github下载地址https://github.com/shelhamer/fcn.berkeleyvision.org核心思想该论文包含了当下CNN的三个思潮- 不含全连接层(fc...
2019-05-14 12:38:57
538
原创 Generalised Dice Overlap as a Deep Learning Loss Function for Highly Unbalanced Segmentations
一.摘要:1.问题:无论是2D还是3D分割都会出现数据不平衡的问题为了解决这个问题,提出了加权交叉熵损失,灵敏度损失,和dice损失2.我们做了什么?调查了不同损失函数对不平衡标签下,学习率不同的灵敏度3.我们的成果?提出Generalised Dice overlap,对于类不平衡系数二.介绍:概述:对于病理图像中,只有一小部分代表病变区域,所以会产生...
2019-05-13 20:41:29
1883
原创 pytorch---错误The NVIDIA driver on your system is too old
AssertionError:The NVIDIA driver on your system is too old (found version 9000).Please update your GPU driver by downloading and installing a newversion from the URL: http://www.nvidia.com/Download...
2019-05-13 13:37:58
6483
原创 pytorch-tensorflow版本选择-cuda8-cudnn5.1
conda install tensorflow-gpu==1.12.0conda install pytorch==1.0.1
2019-05-10 21:16:36
789
1
转载 python3.6---之f'{}'
Option #2: str.format()这种更新的工作方式是在Python 2.6中引入的。您可以查看Python文档以获取更多信息。怎样使用Use str.format()str.format()是对%-formatting的改进。它使用正常的函数调用语法,并且可以通过对要转换为字符串的对象的__format __()方法进行扩展。使用str.format(),替换字段用大...
2019-05-10 16:52:04
55513
8
原创 python---之打印日志logging
import logging # 引入logging模块# 将信息打印到控制台上logging.debug(u"苍井空")logging.info(u"麻生希")logging.warning(u"小泽玛利亚")logging.error(u"桃谷绘里香")logging.critical(u"泷泽萝拉")回显:上面可以看到只有后面三个能打印出来默认生成的root ...
2019-05-10 16:31:00
341
转载 python---之hasattr()
>>> >>> class A(): name = 'python' def func(self): return 'A()类的方法func()' >>> >>> hasattr(A, 'name')True>>> >>> hasatt...
2019-05-10 15:00:03
272
原创 pytorch---之MultiStepLR
classtorch.optim.lr_scheduler.MultiStepLR(optimizer,milestones,gamma=0.1,last_epoch=-1)>>> # Assuming optimizer uses lr = 0.05 for all groups>>> # lr = 0.05 if epoch < ...
2019-05-10 14:36:20
7368
转载 python---之getattr
Python getattr() 函数 Python 内置函数描述getattr() 函数用于返回一个对象属性值。语法getattr 语法:getattr(object, name[, default])参数object -- 对象。 name -- 字符串,对象属性。 default -- 默认返回值,如果不提供该参数,在没有对应属性时,将触发 Attrib...
2019-05-09 17:24:25
424
转载 argparse基本用法
关于argparse网上的资料好多,搞明白后自己整理下,方便以后查看。argparse 是python自带的命令行参数解析包,可以用来方便地读取命令行参数。它的使用也比较简单。1.基本框架下面是采用argparse从命令行获取用户名,该python的文件名为:fun_test.py执行命令python fun_test.py结果如下:在这里插入图片描述 在上面的代...
2019-05-09 17:03:41
379
转载 当卷积层后跟batch normalization层时为什么不要偏置b
起因之前使用的是inception-v2模型,在v2中,标准的卷积模块为:* conv_w_b->bn->relu ->pooling*即,在v2中,尽管在卷积之后、激活函数之前大量使用batch normalization,但是卷积层依然使用可学习的偏置参数。这也比较符合我的直观理解,因为偏置在一般的卷积神经网络中本来就是很重要的,可以让超判决面不过原点。但是我在...
2019-05-09 15:07:55
1127
1
原创 pytho---之easydict使用
写在前面:当遇到一个陌生的python第三方库时,可以去pypi这个主页查看描述以迅速入门!或者 import time dir(time)easydict的作用:可以使得以属性的方式去访问字典的值! >>> from easydict import EasyDict as edict >>> d = edict(...
2019-04-25 15:01:53
357
原创 ITK---安装
https://blog.csdn.net/qq_32599479/article/details/80542145最后记得在build里 sudo make install
2019-03-30 17:22:31
1268
原创 No New-Net
一.摘要:问题:2018Brats challenge方法:用u-net训练,加上了一些微小的改进,加上一些额外的数据结果:第二名一个训练的很好的u-net可以取得一个非常好的结果,并且作者觉得努力去更改网络的结构的那些人很有意思(嘲讽66666)二.介绍:相关工作:在Brats2016的挑战中,DeepMedic-3D CNN(Kamnitsas e...
2019-03-25 15:44:47
1970
原创 3D MRI brain tumor segmentation using autoencoder regularization
摘要:问题:3DMRI 脑肿瘤分割方法:描述了一个编码器解码器的结构,由于训练数据集大小有限,添加变分自动编码器分支以重建输入图像本身,以便使共享解码器正规化并对解码器层施加额外约束。结果:2018年挑战第一名介绍:前面描述的是脑肿瘤等级,以及介绍数据集贡献:1.在这项工作中,我们描述了我们用于多模式3D MRI的体积3D脑肿瘤分割的语义分割方法,该方...
2019-03-22 16:48:58
3206
6
转载 变分编码器
首页 信息时代 变分自编码器(一):原来是这么一回事18 Mar变分自编码器(一):原来是这么一回事By 苏剑林 | 2018-03-18 | 69844位读者 |过去虽然没有细看,但印象里一直觉得变分自编码器(Variational Auto-Encoder,VAE)是个好东西。于是趁着最近看概率图模型的三分钟热度,我决定也争取把VAE搞懂。于是乎照样翻了网上很多资料,无一例外发...
2019-03-22 15:57:51
395
转载 数学之---KL散度
数据的熵K-L散度源于信息论。信息论主要研究如何量化数据中的信息。最重要的信息度量单位是熵Entropy,一般用H表示。分布的熵的公式如下:Entropy上面对数没有确定底数,可以是2、e或10,等等。如果我们使用以2为底的对数计算H值的话,可以把这个值看作是编码信息所需要的最少二进制位个数bits。上面空间蠕虫的例子中,信息指的是根据观察所得的经验分布给出的蠕虫牙齿数量。计算可以...
2019-03-22 15:48:37
834
原创 Automatic Brain Tumor Segmentation using Cascaded Anisotropic Convolutional Neural Networks
摘要:问题:用于脑肿瘤分割方法:1.提出一个级联架构去分割整个肿瘤,核心肿瘤,和增强肿瘤,将多类分割分解为3个2类分割问题.即先分割整个肿瘤,再从整个肿瘤中分割,核心肿瘤,再从核心肿瘤中分割增强肿瘤.2.使用了各向异性卷积和孔洞卷积,结合多视角融合来减少假阳性.3.还使用了残差块和多尺度预测结果:在Brats2017上取得了.Experiments with BraTS...
2019-03-21 11:38:26
1071
原创 Ensembles of Multiple Models and Architectures for Robust Brain Tumour Segmentation
三个模型的代码开源,但是这个方法的整体不开源:DeepMedic:DeepMedicFCN:FCNu-net:u-net一.摘要:问题: 一个应用于脑部肿瘤分割的任务,由于不同的神经网络有不同的性能,表现很容易受不同的网络结构和不同的数据集影响。方法: 采用多个神经网络集成,这样就减少了不同网络元参数(超参)的影响,和防止对一些特定数据集的过拟合。结果...
2019-03-20 15:27:46
919
原创 pytorch---之halfTensor
证明出错在dataloader里面在pytorch当中,float16和half是一样的数据结构,都是属于half操作,然后dataloader不能返回half值,所以在dataloader里面,要把float16改成float32即可返回...
2019-03-20 09:50:04
4714
原创 Deep Inside Convolutional Networks: Visualising Image Classification Models and Saliency Maps
开源:http://code.google.com/p/cuda-convnet/网上的代码实现(在这个网页里面,自己寻找):https://www.jianshu.com/p/e46b1aa48886摘要:问题:1.可视化神经网络,得知神经网络在做什么方法:我们使用两种可视化技术,都是计算关于相关图片类得分的梯度(1).可视化类的概念,最大化类得分(?)(2).计算所...
2019-03-19 14:14:37
5871
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅