自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(22)
  • 收藏
  • 关注

原创 Python 报出error的时候格式变美化了. rich包

发现了rich这个包,mmengine也用它导入了它,导致我们安装mmengine的时候也会自动安装rich。当错误发生的时候,tracebacks就会自动跳入到这里。所以可以尝试直接把rich包删掉即可!这样反而不方便我们的vscode跳入出错的地方。

2023-05-15 23:20:01 593

原创 F.cross_entropy和F.binary_cross_entropy_with_logits

F.cross_entropy 函数对应的类是torch.nn.CrossEntropyLoss,在使用时会自动添加logsoftmax然后计算loss(其实就是nn.LogSoftmax() 和nn.NLLLoss() 类的融合)该函数用于计算多分类问题的交叉熵loss函数形式:这种形式更好理解C为class的数目input 1维情况x[N, C] n维度情况[N, c, d1, d2, d3…]target 1维度情况[N] n维度情况[N, C, d1, d2, d3] 这的数值范

2020-06-12 21:51:40 22910 3

原创 tf-faster-rcnn代码阅读:datasets

class pascal_voc(imdb): def __init__(self, image_set, year, use_diff=False): name = 'voc_' + year + '_' + image_set if use_diff: name += '_diff' imdb.__init__(self, name) self...

2019-06-18 11:05:17 263

原创 CNN中卷积的含义和可视化表示

卷积中的每个filter也就是过滤器可以被看成特征标识符,随着层数加深,过滤器会越来越复杂1.低层的卷积过滤器一般代表一些边缘特征,颜色等。2.较高层的过滤器会代表一些边缘特征的组合,如颜色和边缘组成的简单纹理3.更高层的过滤器会类似于自然图像中的纹理,如羽毛眼睛鼻子等如果图像中含有过滤器所识别的特征,则会有较大的激活,否则则不会激活。例如图像中有一个眼睛,那么所代表眼睛的那个滤波器会激活...

2019-05-30 17:11:13 893

原创 Pytorch上下采样函数--interpolate

最近用到了上采样下采样操作,pytorch中使用interpolate可以很轻松的完成def interpolate(input, size=None, scale_factor=None, mode='nearest', align_corners=None): r""" 根据给定 size 或 scale_factor,上采样或下采样输入数据input. 当...

2019-05-07 11:38:49 51210 8

原创 Pytorch保存和载入模型参数

最近每次保存和载入模型都会忘记代码怎么写,写在这里记住。保存模型参数torch.save(net.state_dict(), Path)net.state_dicct()是一个字典,net中层的名称和参数的对应。Path为要保存的模型的路径和名称。加载模型参数net.load_state_dict(torch.load(Path))Path是要加载的保存好的模型参数的路径...

2019-05-07 11:15:24 1103

原创 pytorch中optim灵活设置各层的学习率

最近研究网络代码的时候,发现师姐的网络在优化的时候学习率是不完全相同的,如下面所示,于是想搞明白。我平常设置学习率都是整个网络统一设置,optimizer = torch.optim.SGD(net.parameters(), lr=0.5) optimizer = optim.SGD([ # encoder-weights {'params': net.get_pa...

2019-04-15 21:06:01 4223

原创 binary和non-binary图像

在显著性检测中,得到的特征图smap,在论文中会有binary和non-binary两种。binary一般是指只有0和1的二值化图像non-binary一般是指元素是【0,1】之间的归一化的图像...

2019-04-07 19:22:32 2049

原创 Pytorch dim

最近使用nn.softmax函数,会有dim= 这一个参数,这就是志明softmax作用的维度。[batch_size, channel, h, w]dim=0 batch_size, dim=1channel,以此类推。这里有一个地方比较容易混,举个例子[h, w],分别代表行和列,dim=0表示作用在行维度上,即对同一列求softmaxdim=1表示作用在列维度上,即对同一行求sof...

2019-03-26 16:41:45 638

原创 Pytorch损失函数nn.NLLLoss2d()

最近做显著星检测用到了NLL损失函数对于NLL函数,需要自己计算log和softmax的概率值,然后从才能作为输入输入[batch_size, channel , w, h]目标[batch_size, w, h]输入的目标矩阵,每个像素必须是类型.举个例子。第一个像素是0,代表着类别属于输入的第1个通道;第二个像素是0,代表着类别属于输入的第0个通道,以此类推。x = Variable...

2019-03-26 15:11:48 8634 3

原创 Numpy打印不全

有时候想看一下图片的像素值的情况和分布,需要查看整个图像的矩阵,但是numpy打印会出现省略号,看不到中间的使用np.set_printoptions(threshold=np.nan)

2019-03-26 09:48:28 2994 1

原创 Pytorch对tensor进行变形torch.view()

最近复现论文的时候经常会需要我对tensor的维度进行转换来符合[batch_size, channel, w, h]的四维格式x = Variable(torch.Tensor([[1, 2, 3], [3, 2, 1], [1, 1, 1]]))print(x)print(x.sh...

2019-03-26 09:43:52 2918

原创 pytorch自己给卷积层初始化

import numpy as npimport torchvision.models as modelsimport torchw = torch.nn.Conv2d(2, 2, 3, padding=1)print("w的权重:", w.weight)q = torch.nn.Conv2d(2, 2, 3, padding=1)print("q的权重:", q.weight)w...

2019-03-21 09:32:14 2997

原创 PyTorch复现经典网络————GoogleNet

import numpy as npimport torchfrom torch import nnfrom torch.autograd import Variablefrom torchvision.datasets import CIFAR10# d定义一个卷积+ReLu的函数,[输入通道, 输出通道, 卷积核大小, stride, paading]def conv_relu(...

2019-03-13 12:34:00 1022

原创 PyTorch复现经典网络————AlexNet

import torchfrom torch import nnimport numpy as npfrom torch.autograd import Variablefrom torchvision.datasets import CIFAR10class AlexNet(nn.Module): def __init__(self): super().__i...

2019-03-12 11:19:06 1227

原创 pytorch MNIST数据集代码

花了一上午的时间,用mnist数据集练习了pytorch训练神经网络,调节了很多小的bug,写有比较详细的注释import numpy as npimport torchfrom torchvision.datasets import mnistimport torchvisionfrom torch import nnfrom torch.autograd import Variab...

2019-03-11 11:05:27 1126

原创 深度残差网络

今天看的论文是Deep Residual Learning for Image Recognition同时结合了吴恩达关于深度残差网络的讲解对于添加了残差块的网络,让网络学习到最后的恒等函数是很容易的,所以网络层次变深,网络的性能至少不会下降,而如果中间的隐层学习到了一些东西,这样网络的性能就会提升了。而对于普通的网络(plain network),越来越深层的网络很难学习,所以性能会下...

2019-02-28 15:39:25 260

原创 tensorflow问题 如何打印tensor和卷积方式

看论文的时候突然想起tensoflow之前一直没搞明白的一点问题,用一个多小时查资料解决。1。如何打印tensor的值:简单举个例子import tensorflow as tfx = tf.constant([1., 2., 3., 4., 5., 6., 7., 8., 9.], shape=[1, 3, 3, 1]) # 输入一个3*3单通道图像y =tf.constant([...

2019-02-27 15:40:24 857

原创 tensorflow备忘

有一段时间没有看了,有点忘记,又花了半天的时间复习,这里记一下tensorflow支持的格式是四维的[n, h, w, c]这里n 为batch_size的大小h和w分别为图像的高度和宽度c为通道数channel在卷积网络中,权重参数w的初始化[h, w, input_channel, output_channel]...

2019-02-26 15:34:37 120

原创 input_data

在需要导入mnist数据集的时候使用import input_data会报错ModuleNotFoundError: No module named ‘input_data’所以改成from tensorflow.examples.tutorials.mnist import input_data...

2018-12-14 04:47:45 3850

原创 用到的函数总结

最近一直在接触各种函数,总是会混淆和记不清名字和使用方法,以博客的形式记录下来,边用边记,不断更新,希望能加深印象。1.pandas .unique()得到Serise中不同的值import pandas as pddata=[[1,2,3,4],[1,3,4,5],[3,4,5,6]]columns=["A","B","C","D"]test=pd.DataFrame(data,c...

2018-12-04 04:16:02 132

原创 Pandas中loc,iloc,ix总结

第一次来写博客,感觉能把自己学习中的东西总结下来是一个很不错的方式,于是来尝试一下,希望会对自己有提升并且自己能坚持下去。最近开始学习唐宇迪的机器学习课程,刚刚接触pandas不久,经常会被索引弄晕,今天查了一些资料,并付诸实践,于是总结如下。loc:用于通过行/列标签索引数据iloc:用于通过行/列号索引数据ix:通过行/列标签或行/列号索引均可首先自定义一组数据import pan...

2018-11-28 03:38:43 2033

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除