自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(422)
  • 资源 (1)
  • 收藏
  • 关注

原创 脚本语言

脚本语言就是一行行的文字命令,顺序执行文字命令得到最终的目标。

2020-05-06 07:05:14 115

原创 小白学随机变量

随机变量的理解背景知识概率论研究目标随机试验概率分布数字特征产生背景定义背景知识概率论研究目标随机试验满足三个条件:(1)可重复性:相同条件下可重复进行。(2)每次试验的结果不唯一:从两方面理解,每次试验的结果不止一个,并且能事先明确所有可能的结果。如果结果唯一就是必然事件,例如:太阳东升西落。这是一个必然事件。(3)每次出现的结果都具有独立性:进行一次试验之前,不能确定哪一个结果...

2020-04-09 07:38:16 94

原创 小白初学图像压缩算法(一)

图像压缩算法引言方法含义概念压缩比二级目录三级目录引言图像压缩算法的基础是信息论,由信息论的冗余度引入了压缩这个概念。本质是如何针对给定的数据,给定的场景,建立相应的模型,完成数据的压缩,同时保证图像的效果。方法香农的信息论,在不产生任何失真的前提下,通过合理的编码,对于每个信源符号分配不等长的码字,平均码长可以任意接近于信源的熵。含义将压缩算法和重构算法合并在一起,称之为压缩算法。...

2020-04-08 07:30:25 134

原创 pytorch中contiguous()的理解

功能:将tensor的内存变为连续的。有些tensor并不是占用一整块内存,而是由不同的数据块组成,而tensor的view()操作依赖于内存是整块的,这时只需要执行contiguous()这个函数,把tensor变成在内存中连续分布的形式。注:在pytorch的最新版本0.4版本中,增加了torch.reshape(), 这与 numpy.reshape 的功能类似。它大致相当于 tenso...

2020-04-01 12:20:59 220

原创 torch中view函数的用法

import torchimport numpyx = torch.tensor(2,2,2)t = x.view(1,8)#输出数组的大小为1*8t = x.view(-1,4)#输出数组的大小为2*4, -1表示自行判断t = x.view(8)#输出数组的大小为8*1t = x.view(-1)#输出数组的大小为1*8...

2020-04-01 12:14:52 400

原创 图像分割中涉及的损失函数(主要用来处理样本不平衡)

图像分割中的损失函数前言解决办法损失函数1. log loss损失函数2. WBE loss3. Focal loss应用场景思想公式三级目录前言图像分割中的loss函数继承了深度学习模型中一般损失函数的所有特点,但是又有其自身的特点,即需要处理类别不平衡的问题,在进行图像分割中,往往图像中成为背景的像素值占绝大多数,而前景目标的像素只有很少一部分。注:以下链接详细介绍了深度学习模型中的一般...

2020-04-01 10:13:36 714

原创 pytorch中nn.Conv2d卷积的padding的取值问题

明确卷积的计算公式:d = (d - kennel_size + 2 * padding) / stride + 1保证输入输出的分辨率大小一致,padding的取值:如果kernal_size = 3, padding = 1。kernal_size = 7, padding = 3.参考链接:https://blog.csdn.net/qq_26369907/article/det...

2020-03-31 06:31:56 297

原创 Linux下运行Python代码遇到cannot connect to X server这个问题的解决办法

在Linux下运行Python代码遇到了这个问题。调查后发现,X server是Linux系统上提供图形用户界面的服务程序。当客户端主机Client访问服务器Server上的图形程序时,需要Server对该Client赋能访问图形程序的权限。所以原因是我在改opencv代码处理图片的时候,有一条cv2.imshow函数没有注释掉,这个函数在windows下可以直接调出窗口显示图片,在命令行下使...

2020-03-31 06:23:45 637

原创 pytorch中交叉熵的妙用

注:对于图像分割而言,交叉熵的输入:通过深度学习模型的预测样本的输入为:SCHW,其中,S为样本数目,C为分类数目,H和W为图像样本尺寸。 样本标签的输入为:SH*W, 其中,S为样本数,H和W为图像样本尺寸。参考链接:https://blog.csdn.net/qq_22210253/article/details/85229988?depth_1-utm_source=distrib...

2020-03-31 06:20:58 91

原创 一文读懂深度学习算法中的优化算法发展史

深度学习优化算法发展史优化算法的目的各种优化算法梯度下降法动量梯度法Adam优化算法优化算法的目的各种优化算法所有梯度算法都是基于梯度下降法进行演进的。主要分为三大阶段,第一阶段是梯度下降法,这个阶段的优化算法可以找到局部最优解,但是无法找到全局最优解,很容易陷入鞍点。第二阶段为动量梯度法,这个阶段的优化算法考虑了权重的优化方向,借鉴了动量的原理,可以在某种程度上跳出局部最优解,但是很容...

2020-03-23 19:45:19 239

原创 pytorch损失函数之nn.CrossEntropyLoss()理解

功能:综合了softmax和交叉熵的功能。https://blog.csdn.net/geter_CS/article/details/84857220

2020-03-20 19:05:04 486

原创 numpy数组转化为列表

使用**tolist()**完成数组转换,使用astype 能够指定数据类型from numpy import * #tolist astype a = array([1,2,3,4,5,6])print(a)print(a.tolist()) #将numpy中的数组转换为python中的列表print("-----------------------1111...

2020-03-20 17:31:27 506

原创 matlabplit颜色控制

参考链接:https://blog.csdn.net/CD_Don/article/details/88070453?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-task

2020-03-20 17:27:13 41

原创 python字典和列表的相互转换

列表和字典的相互转换列表转化为字典字典转化为列表列表转化为字典使用zip函数完成转换a = ['a1','a2','a3','a4']b = ['b1','b2','b3']d = zip(a,b)print(dict(d)) # {'a1': 'b1', 'a2': 'b2', 'a3': 'b3'}字典转化为列表dit = {'name':'zxf', ...

2020-03-20 17:19:04 184

原创 python中使用matlabplit绘制动态直方图

通过这样的动态作图,可以用来分析深度学习模型的性能。示例代码1:动态直方图import matplotlib.pyplot as pltfig, ax = plt.subplots()y1 = []for i in range(50): y1.append(i) # 每迭代一次,将i放入y1中画出来 ax.cla() # 清除键,清除所有的数值 #ax...

2020-03-20 17:09:23 340

原创 如何在CSDN中编辑公式

使用......插入公式。(1)使用LATEX在线编辑器。(2)熟悉其语法之后,可以直接在CSDN界面编辑公式。示例:c=a+bc = a + bc=a+b参考链接:https://blog.csdn.net/lhp171302512/article/details/74943014...

2020-03-19 18:54:51 48

原创 一文读懂深度学习模型中损失函数(均方误差,log loss和交叉熵)

误差函数理解定义功能与BP算法,激活函数的关系误差函数的特点常见误差函数均方误差函数公式应用场景pytorch实现代码交叉熵公式应用场景pytorch实现代码定义误差函数是关于模型输出和样本标签值之差的函数,通过对误差函数求导来调节权重参数。功能调节权重参数与BP算法,激活函数的关系误差函数的选择,不仅与要解决的问题有关,而且也和激活函数有关,然后通过对误差函数求导,利用BP调节模型中...

2020-03-19 18:48:50 782

原创 pytorch中tensor和numpy互相转换

numpy转化为tensor.pytorch 基本函数中的 dim【详细说明】:以torch.argmax为例tensor转化为numpymodel_corr = model_corr.numpy()参考链接:https://blog.csdn.net/qianbin3200896/article/details/90233801?depth_1-utm_source=dis...

2020-03-19 14:53:33 534

原创 pytorch 基本函数中的 dim说明

dim:表示维度,0:行,1:列示例代码:

2020-03-19 14:04:49 527

原创 Python保留指定位数的小数

方法:’%.2f’ %f 方法(推荐)f = 1.23456print('%.4f' % f)print('%.3f' % f)print('%.2f' % f)format函数print(format(1.23456, '.2f'))print(format(1.23456, '.3f'))print(format(1.23456, '.4f'))ro...

2020-03-19 13:56:47 858

原创 pytorch可视化深度学习训练过程

打印关键信息的log,l例如loss信息。引入tqdm模块可以估计训练时间。3.可视化训练过程。参考链接:https://blog.csdn.net/weixin_38410551/article/details/104823037...

2020-03-17 00:05:07 182

原创 pytorch创建伪样本数据

创建伪数据目的方法示例代码目的为了验证网络的性能,或者为了说明网络的某些问题。方法创建输入。创建虚伪标签。示例代码创建了一个y = x^2的伪样本数据import torchmport matplotlib.pyplot as plt'''print(torch.__version__)print(torch.cuda.is_available())'''#固定随机...

2020-03-16 12:12:31 79

原创 pytorch中进行深度学习的权重初始化策略

目的:降低梯度消失和梯度爆炸的可能性。方法:每一层权重输出的均值为1,方差一致。权重初始化与每一层的节点个数有关,节点个数越多,每一层的权重参数越小。参考链接:https://blog.csdn.net/Harpoon_fly/article/details/85227677...

2020-03-15 19:05:42 197

原创 神经网络中偏差和方差的定义

**偏差定义:**偏差的定义由训练集的误差与人类误差比较来定义,训练集的误差低,偏差低,训练集的误差高,称为高偏差,高偏差也称之为过拟合。**方差定义:**方差的定义,源于比较训练误差和验证集误差的差异,若差异较大,则称之为高方差,否则为低方差。举例:(1) 高方差(2)高偏差(3)高偏差,高方差(4)低偏差,低方差功能:通过分析偏差和方差,来优化模型算法。注:高偏差,即欠拟合,可...

2020-03-15 18:47:12 45

原创 pytorch自定义的网络可以不进行初始化

注:pyttorch自定义的网络结构,已经进行了初始化。自定义的网络结构,可以不进行初始化。参考链接:https://blog.csdn.net/u011668104/article/details/81670544?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant...

2020-03-14 19:12:24 137

原创 windows10上安装使用pytorch(pycharm也可以采用这种方法安装)

进入pytorch官网。https://pytorch.org/找到适合自己的版本,CUDA、平台、Python等,然后会自动提示“Run this command” 命令指令进行安装。我的是Python3.5(Anaconda4.2)+CUDA8.0+windows10,当然如果电脑没有GPU,CUDA就选none。conda 安装Pytorch包Win+R进入windows运行...

2020-03-13 19:06:00 255

原创 CUDA之nvidia-smi命令详解

参考链接:https://blog.csdn.net/u013066730/article/details/84831552

2020-03-13 17:32:44 47

原创 查看内存的方法

查看内存:nvidia-smi

2020-03-13 17:16:40 22

原创 CSDN生成目录

如何创建目录#1.如何创建目录#2.创建目录2参考链接:https://blog.csdn.net/csdn10086110/article/details/89882729https://blog.csdn.net/TeFuirnever/article/details/90343246?depth_1-utm_source=distribute.pc_relevant.none-ta...

2020-03-13 11:56:16 45

原创 python中tqdm的安装,理解

功能:进度条参考链接:https://blog.csdn.net/rosefun96/article/details/78884687

2020-03-12 17:05:58 342

原创 Tmux的使用

功能:远程连接跑服务器的程序,经常会中断,使用tmux可以使得程序稳定性增强,并且提高跑程序的效率。参考链接:http://www.ruanyifeng.com/blog/2019/10/tmux.htmlhttps://blog.csdn.net/xunbaobao123/article/details/103400890...

2020-03-11 18:10:10 36

原创 pytorch学习之优化器torch.optim

功能:更新模型参数参考链接:https://blog.csdn.net/qq_20622615/article/details/83150963

2020-03-11 17:21:58 152

原创 pytorch中为什么要执行optimizer.zero_grad()这个操作

功能:将梯度参数置零。参考链接:https://blog.csdn.net/scut_salmon/article/details/82414730

2020-03-11 17:12:59 436

原创 model.to(device)

功能:完成tensor数据向GPU复制粘贴。参考链接:https://blog.csdn.net/shaopeng568/article/details/95205345

2020-03-11 11:58:40 249

原创 torch.device的功能

功能:#torch.device代表将torch.Tensor分配到的设备的对象参考链接:https://ptorch.com/news/187.html

2020-03-11 11:39:05 281

原创 python中yeild的用法

功能:为了减少数据存储,利用yeild构建生成器,与next配合使用。示例代码1:def foo(): print("starting...") while True: res = yield 4 print("res:",res)g = foo()print(next(g))print("*"*20)print(g.s...

2020-03-08 21:01:39 103

原创 python生成器的理解

定义:通过算法来定义数组。目的:可以减少数据存储。参考链接:https://blog.csdn.net/weixin_37720172/article/details/78482291

2020-03-08 19:56:31 31

原创 imgaud学习笔记

简介:imgaug是一个封装好的用来进行图像augmentation的python库,支持关键点(keypoint)和bounding box一起变换。目的:对图像进行处理参考链接:https://blog.csdn.net/u012897374/article/details/80142744...

2020-03-08 17:50:02 36

原创 双线性插值的理解

目的:在缩放算法中,完成目标图像的插值,本质是对图像信息的补充。方法:将目标图像的坐标,通过缩放比映射到原图,然后根据邻近四点的像素值,依据线性权值完成最终的插值。参考链接:https://blog.csdn.net/qq_37577735/article/details/80041586...

2020-03-08 17:24:56 52

原创 CV.resize()用法

功能:主要对图像进行缩放。参考链接:https://blog.csdn.net/william_hehe/article/details/79604082

2020-03-08 16:58:50 267

GPU 个人电脑运行环境配置指引指引.pdf

win10环境,linux环境安装,包括cudn,cudnn的安装,深度学习环境配置,资料非常详细,

2020-01-11

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人 TA的粉丝

提示
确定要删除当前文章?
取消 删除