![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
爱学习的人工智障
专注于深度学习,扣图算法,压缩算法,去隔行算法
展开
-
pytorch学习笔记一:pytorch学习的路线图
pytorch学习笔记原创 2022-09-18 17:22:23 · 807 阅读 · 1 评论 -
一文读懂Diffusion model
扩散模型原创 2022-08-06 22:10:36 · 1599 阅读 · 0 评论 -
ubuntu20.04中pcharm配置pytorch环境
pycharm配置pytorch环境原创 2022-07-14 22:30:11 · 881 阅读 · 0 评论 -
ubuntu20.04安装mxnet(看这一篇就够了)
ubuntu20.04安装mxnet原创 2022-07-14 22:23:32 · 902 阅读 · 0 评论 -
pytorch中contiguous()的理解
功能:将tensor的内存变为连续的。有些tensor并不是占用一整块内存,而是由不同的数据块组成,而tensor的view()操作依赖于内存是整块的,这时只需要执行contiguous()这个函数,把tensor变成在内存中连续分布的形式。注:在pytorch的最新版本0.4版本中,增加了torch.reshape(), 这与 numpy.reshape 的功能类似。它大致相当于 tenso...原创 2020-04-01 12:20:59 · 994 阅读 · 0 评论 -
torch中view函数的用法
import torchimport numpyx = torch.tensor(2,2,2)t = x.view(1,8)#输出数组的大小为1*8t = x.view(-1,4)#输出数组的大小为2*4, -1表示自行判断t = x.view(8)#输出数组的大小为8*1t = x.view(-1)#输出数组的大小为1*8...原创 2020-04-01 12:14:52 · 2752 阅读 · 0 评论 -
图像分割中涉及的损失函数(主要用来处理样本不平衡)
图像分割中的损失函数前言解决办法损失函数1. log loss损失函数2. WBE loss3. Focal loss应用场景思想公式三级目录前言图像分割中的loss函数继承了深度学习模型中一般损失函数的所有特点,但是又有其自身的特点,即需要处理类别不平衡的问题,在进行图像分割中,往往图像中成为背景的像素值占绝大多数,而前景目标的像素只有很少一部分。注:以下链接详细介绍了深度学习模型中的一般...原创 2020-04-01 10:13:36 · 2988 阅读 · 0 评论 -
pytorch中nn.Conv2d卷积的padding的取值问题
明确卷积的计算公式:d = (d - kennel_size + 2 * padding) / stride + 1保证输入输出的分辨率大小一致,padding的取值:如果kernal_size = 3, padding = 1。kernal_size = 7, padding = 3.参考链接:https://blog.csdn.net/qq_26369907/article/det...原创 2020-03-31 06:31:56 · 1610 阅读 · 1 评论 -
pytorch中交叉熵的妙用
注:对于图像分割而言,交叉熵的输入:通过深度学习模型的预测样本的输入为:SCHW,其中,S为样本数目,C为分类数目,H和W为图像样本尺寸。 样本标签的输入为:SH*W, 其中,S为样本数,H和W为图像样本尺寸。参考链接:https://blog.csdn.net/qq_22210253/article/details/85229988?depth_1-utm_source=distrib...原创 2020-03-31 06:20:58 · 288 阅读 · 0 评论 -
一文读懂深度学习算法中的优化算法发展史
深度学习优化算法发展史优化算法的目的各种优化算法梯度下降法动量梯度法Adam优化算法优化算法的目的各种优化算法所有梯度算法都是基于梯度下降法进行演进的。主要分为三大阶段,第一阶段是梯度下降法,这个阶段的优化算法可以找到局部最优解,但是无法找到全局最优解,很容易陷入鞍点。第二阶段为动量梯度法,这个阶段的优化算法考虑了权重的优化方向,借鉴了动量的原理,可以在某种程度上跳出局部最优解,但是很容...原创 2020-03-23 19:45:19 · 1457 阅读 · 0 评论 -
pytorch损失函数之nn.CrossEntropyLoss()理解
功能:综合了softmax和交叉熵的功能。https://blog.csdn.net/geter_CS/article/details/84857220原创 2020-03-20 19:05:04 · 1946 阅读 · 0 评论 -
matlabplit颜色控制
参考链接:https://blog.csdn.net/CD_Don/article/details/88070453?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-task原创 2020-03-20 17:27:13 · 185 阅读 · 0 评论 -
python中使用matlabplit绘制动态直方图
通过这样的动态作图,可以用来分析深度学习模型的性能。示例代码1:动态直方图import matplotlib.pyplot as pltfig, ax = plt.subplots()y1 = []for i in range(50): y1.append(i) # 每迭代一次,将i放入y1中画出来 ax.cla() # 清除键,清除所有的数值 #ax...原创 2020-03-20 17:09:23 · 1413 阅读 · 0 评论 -
一文读懂深度学习模型中损失函数(均方误差,log loss和交叉熵)
误差函数理解定义功能与BP算法,激活函数的关系误差函数的特点常见误差函数均方误差函数公式应用场景pytorch实现代码交叉熵公式应用场景pytorch实现代码定义误差函数是关于模型输出和样本标签值之差的函数,通过对误差函数求导来调节权重参数。功能调节权重参数与BP算法,激活函数的关系误差函数的选择,不仅与要解决的问题有关,而且也和激活函数有关,然后通过对误差函数求导,利用BP调节模型中...原创 2020-03-19 18:48:50 · 5665 阅读 · 1 评论 -
pytorch中tensor和numpy互相转换
numpy转化为tensor.pytorch 基本函数中的 dim【详细说明】:以torch.argmax为例tensor转化为numpymodel_corr = model_corr.numpy()参考链接:https://blog.csdn.net/qianbin3200896/article/details/90233801?depth_1-utm_source=dis...原创 2020-03-19 14:53:33 · 1910 阅读 · 0 评论 -
pytorch 基本函数中的 dim说明
dim:表示维度,0:行,1:列示例代码:原创 2020-03-19 14:04:49 · 1222 阅读 · 0 评论 -
pytorch可视化深度学习训练过程
打印关键信息的log,l例如loss信息。引入tqdm模块可以估计训练时间。3.可视化训练过程。参考链接:https://blog.csdn.net/weixin_38410551/article/details/104823037...原创 2020-03-17 00:05:07 · 764 阅读 · 0 评论 -
pytorch创建伪样本数据
创建伪数据目的方法示例代码目的为了验证网络的性能,或者为了说明网络的某些问题。方法创建输入。创建虚伪标签。示例代码创建了一个y = x^2的伪样本数据import torchmport matplotlib.pyplot as plt'''print(torch.__version__)print(torch.cuda.is_available())'''#固定随机...原创 2020-03-16 12:12:31 · 612 阅读 · 0 评论 -
pytorch自定义的网络可以不进行初始化
注:pyttorch自定义的网络结构,已经进行了初始化。自定义的网络结构,可以不进行初始化。参考链接:https://blog.csdn.net/u011668104/article/details/81670544?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant...原创 2020-03-14 19:12:24 · 674 阅读 · 0 评论 -
windows10上安装使用pytorch(pycharm也可以采用这种方法安装)
进入pytorch官网。https://pytorch.org/找到适合自己的版本,CUDA、平台、Python等,然后会自动提示“Run this command” 命令指令进行安装。我的是Python3.5(Anaconda4.2)+CUDA8.0+windows10,当然如果电脑没有GPU,CUDA就选none。conda 安装Pytorch包Win+R进入windows运行...原创 2020-03-13 19:06:00 · 663 阅读 · 0 评论 -
pytorch实现深度学习进行图像分割实战项目系列文章一(深度学习中如何进行数据预处理)
将样本图像转化为csv文件。读取csv文件进行样本数据预处理。将样本数据转化为tensor格式的数据,输入模型。原创 2020-03-03 16:47:02 · 1381 阅读 · 3 评论 -
pytorch学习之优化器torch.optim
功能:更新模型参数参考链接:https://blog.csdn.net/qq_20622615/article/details/83150963原创 2020-03-11 17:21:58 · 764 阅读 · 0 评论 -
pytorch中为什么要执行optimizer.zero_grad()这个操作
功能:将梯度参数置零。参考链接:https://blog.csdn.net/scut_salmon/article/details/82414730原创 2020-03-11 17:12:59 · 1059 阅读 · 0 评论 -
model.to(device)
功能:完成tensor数据向GPU复制粘贴。参考链接:https://blog.csdn.net/shaopeng568/article/details/95205345原创 2020-03-11 11:58:40 · 1536 阅读 · 0 评论 -
torch.device的功能
功能:#torch.device代表将torch.Tensor分配到的设备的对象参考链接:https://ptorch.com/news/187.html原创 2020-03-11 11:39:05 · 1309 阅读 · 0 评论 -
pytorch实现基于resnet的Unet
resnet可以作为Unet的编码模块,只要把最后的全连接层去掉即可,其它无需改变。Unet网络的整体结构为编码模块,和解码模块。解码模块要将每个stage模块的中间输出保存下来,以便与对应的解码模块的stage相连接。Unet的创新之处在于它的解码模块,所以代码实现的时候尤其要关注每个模块的输入输出信道数,解码模块中间几个模块的处理过程相同,可以用for循环处理,而作为解码模块的输入和输出...原创 2020-02-16 18:17:29 · 5022 阅读 · 1 评论 -
pytorch实现resnet网络代码
res代码的结构:卷积(11 ,33)构成块,块构成stage, stage构成最终的网络。注意basic_block和bottleneck的区别。downsample如何实现输入和输出跳层相加。块与块之间如何完成连接,最终构成stage.编写卷积结构的输入参数:输入输出通道数,kernalsize, 步进,padding, biase,要学会将常用的结构封装为函数或类,例如:33卷积...原创 2020-02-15 17:17:33 · 869 阅读 · 0 评论 -
pytorch实现论文中的unet网络
设计神经网络的一般步骤:1. 设计框架2. 设计骨干网络Unet网络设计的步骤:1. 设计Unet网络工厂模式2. 设计编解码结构3. 设计卷积模块4. unet实例模块Unet网络最重要的特征:1. 编解码结构。2. 解码结构,比FCN更加完善,采用连接方式。3. 本质是一个框架,编码部分可以使用很多图像分类网络。示例代码:import torchimport torch....原创 2020-02-13 13:37:52 · 1022 阅读 · 0 评论 -
python中for循环和range()函数配合使用
注:1. python中for循环索引是从0开始的。2. 使用range函数时,应该小于给定的值。例如:a = [1,2,3,4,5]for i in range(len(a)): print(a[i])最终的输出为:1,2,3,4,5若改为a = [1,2,3,4,5]for i in range(len(a) - 1): print(a[i])`输出...原创 2020-02-12 19:56:17 · 2491 阅读 · 0 评论 -
Pytorch中的net.train 和 net.eval使用
net.eval():测试时的网络特征。参考链接:https://blog.csdn.net/edward_zcl/article/details/101947941原创 2020-02-12 17:27:41 · 1614 阅读 · 0 评论 -
一文掌握torch.squeeze() 和torch.unsqueeze()的用法
功能:进行维度的压缩和扩展。参考链接:https://blog.csdn.net/qian2213762498/article/details/88760496原创 2020-02-12 17:23:29 · 188 阅读 · 0 评论 -
pytorch中permute()函数的用法
功能:转换维度。参考链接:https://blog.csdn.net/york1996/article/details/81876886原创 2020-02-12 17:13:48 · 2592 阅读 · 0 评论 -
torch.from_numpy()完成numpy到tensor数组的转换
功能:完成数组numpy到tensor的转换。示例代码:import torchimport numpy as npa = np.ones(5)b = torch.from_numpy(a)print(type(a))print(type(b))输出结果:<class 'numpy.ndarray'><class 'torch.Tensor'>参...原创 2020-02-12 17:09:41 · 2501 阅读 · 0 评论 -
pytorch中nn.Sequential()的用法
功能:Sequential 内的模块需要按照顺序排列,要保证相邻层的输入输出大小相匹配,内部 forward 功能已经实现,可以使代码更加整洁。参考链接:https://blog.csdn.net/byron123456sfsfsfa/article/details/89930990...原创 2020-02-10 19:56:05 · 4512 阅读 · 0 评论 -
pytorch中nn.Modulist()的功能
功能:和python的列表功能类似。它是一个储存不同 module,并自动将每个 module 的 parameters 添加到网络之中的容器。原创 2020-02-10 18:29:54 · 570 阅读 · 0 评论 -
pytorch中定义卷结核
卷积核定义的几个要点:输入通道数,输出通道数,卷积核大小,补偿,扩展像素的大小。参考链接:https://blog.csdn.net/lyl771857509/article/details/84113177原创 2020-01-17 15:34:39 · 116 阅读 · 0 评论 -
pytorch从入门到实践(第四章)
4.1 nn.Moduletorch.nn的核心数据结构是Module,它是一个抽象的概念,既可以表示神经网络的某个层,也可以包含很多层的神经网络。注:实际使用中,最常见的做法是继承nn.Module,撰写自己的网络/层。...原创 2020-01-13 14:22:43 · 176 阅读 · 0 评论 -
pytorch中nn.sequential()函数的理解
既可以形成固定结构的神经网络,也可以形成动态结构的神经网络。参考链接:https://blog.csdn.net/dss_dssssd/article/details/82980222原创 2020-01-13 14:22:14 · 5277 阅读 · 0 评论 -
pytorch中自适应平均池化的理解
参考链接:https://blog.csdn.net/caicaiatnbu/article/details/88955272原创 2020-01-13 14:19:03 · 4735 阅读 · 0 评论 -
VGG模型的pytorch代码实现
学到的知识:VGG网络如何通过pytorch实现。学习了通过pytorch构建网络的一般方法。学习了python的一些基础语法。1. VGG网络如何通过pytorch实现。网络的构建主要分为两部分,一部分是全连接层的构建,还有一部分是卷积层的构建。(1)定义网络class VGG(nn.Module): 定义了名为VGG的网络,继承了nn.Module的属性...原创 2020-01-13 14:16:02 · 2732 阅读 · 0 评论