自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(16)
  • 问答 (2)
  • 收藏
  • 关注

原创 SSM整合配置文件

SSM整合 配置文件编写

2022-08-18 16:49:15 193 1

原创 编写python pytorch代码过程中使用和见到的一些函数

pytorch操作张量的常用函数

2022-08-16 21:26:56 479

原创 vscode连接远程服务器使用tqdm乱码问题

vscode连接远程服务器使用tqdm乱码问题最近把ide从pycharm换到了vscode,主要原因是身边的朋友都在用vscode,我也试了一下,插件看的我眼花缭乱。最大的好处就是可以直接在服务器上写代码,不过需要crtl+s保存,其实pycharm也有类似的功能hh。总体使用上来说感觉pycharm比较臃肿,vscode相对清爽一些,跑题了hh。在服务器上跑python程序的时候,使用tqdm的时候出现了乱码问题,一开始懒得搞,后面看不下去了,就开始百度。找了半天只有pycharm的解决方式,分析

2022-05-05 20:29:56 1229 1

原创 idea中使用eclipse快捷键的常用快捷键

eclipse常用快捷键因为一开始是跟着尚硅谷的康师傅学习java的,所以在idea中仍然使用eclipse的快捷键,但是经常忘记,所以在这里记录一下。也有一些是经过个人设置之后的快捷键,如有错误还请包含。ctrl + o(英文字母o)查看当前类的属性和方法ctrl + shift + t查找类alt + shift + s生成类内的get/set 构造器方法等等shift + enter在当前行的任意位置使用,直接跳转到下一行,效果有点类似于在当前行末尾按下enter,只不过可以在任

2022-04-28 10:57:24 2164

原创 TRANSFER LEARNING FOR COMPUTER VISION TUTORIAL

在这个教程中,你将学习图像分类的迁移学习。你可以在[这里]看到更多关于迁移学习的知识。(https://cs231n.github.io/transfer-learning/)在实践中,很少有人从头开始训练整个卷积网络(使用随机初始化),因为拥有足够大小的数据集的情况相对较少。相反,通常是在非常大的数据集上预先训练卷积网络(例如ImageNet,它包含120万张图像,包含1000个类别),然后将卷积网络用作感兴趣任务的初始化或固定特征提取器。这两种主要的迁移学习场景如下: 一、优化卷积神经网络:我们使

2021-08-05 16:12:50 111

原创 SAVE AND LOAD THE MODEL

SAVE AND LOAD THE MODEL本节我们将了解通过保存、加载、运行模型预测来持久化模型状态。首先导入库import torchimport torch.onnx as onnximport torchvision.models as models保存和加载权重PyTorch模型把学习过的参数保存在内部的一个称为state_dict 的状态字典中,可以通过torch.save()方法来保存model = models.vgg16(pretrained=True)torch.s

2021-07-23 17:50:32 110

原创 Pytorch之OPTIMIZING MODEL PARAMETERS

优化模型参数有了模型之后,可以开始训练参数了。这是一个迭代的过程,这中间我们需要损失函数、迭代次数、优化器、各种超参数。接下来将诸逐个介绍。预先的代码import torchfrom torch import nnfrom torch.utils.data import DataLoaderfrom torchvision import datasetsfrom torchvision.transforms import ToTensor, Lambdatraining_data = da

2021-07-23 16:49:22 178

原创 Pytorch之AUTOMATIC DIFFERENTIATION WITH TORCH.AUTOGRAD

TORCH.AUTOGRAD:自动微分当训练神经网络时,最常用的算法就是反向传播。根据损失函数来调整给定的参数。为了计算这些梯度,PyTorch有一个内嵌的微分引擎称为 torch.autograd。它支自动地为任意的计算图计算梯度。考虑到最简单的单层神经网络,input x,参数w和b,和损失函数。如下定义import torchx = torch.ones(5) # input tensory = torch.zeros(3) # expected outputw = torch.r

2021-07-22 19:55:57 383

原创 Pytorch之BUILD THE NEURAL NETWORK

建立神经网络神经网络由很多能操作数据的层或模块构成。torch.nn这一命名空间提供了所有你构建你的神经网络时所需要的模块。所有模块都是nn.Module的子类。在接下来的部分,我们将建立一个神经网络来对MNIST 数据集中的图像进行分类。首先导入需要的库import osimport torchfrom torch import nnfrom torch.utils.data import DataLoaderfrom torchvision import datasets, transfo

2021-07-22 16:43:59 190

原创 Pytorch之Transforms

Transforms数据的最终处理结果并不总是与我们要求的算法吻合。我们使用transforms来操作数据,让他适用于训练。所有的TorchVision 数据集都有两种参数-transform 去调整特征 ,target-transform 调整标签里面包含了可调用的转换逻辑。FashionMNIST 特征是 PIL 图像形式,标签是整数形式。对于训练,我们需要规范化的张量,标签需要独热编码的张量。为了实现转换,我们使用ToTensor 和 Lambdaimport torchfrom torch

2021-07-20 19:39:19 640

原创 Pytorch之DATASETS & DATALOADERS

DATASETS & DATALOADERSpytorch提供了两种比较原始的方法:torch.utils.data.DataLoader 和torch.utils.data.Dataset,它们允许你使用预下载的数据集和你自己的数据集。Dataset存储了样本数据以及对应的标签,而DataLoader为数据包装一个可迭代对象,以便于访问。Pytorch中提供了很多预下载的数据集,(例如FashionMNIST)这些数据集都是torch.utils.data.Dataset的子类,并且对特殊的数

2021-07-20 17:16:59 216

原创 初学pytorch之Tensors

在老师指导下开始了pytorch的学习,网址pytorch,遗憾的是需要翻墙,略有些麻烦。Tensors are a specialized data structure that are very similar to arrays and matrices. In PyTorch, we use tensors to encode the inputs and outputs of a model, as well as the model’s parameters.TensorsTensors

2021-07-19 17:34:06 249

原创 numpy函数续

np.logspace(start,end,num,base, endpoint):start–开始值,end–结束值,num–元素个数,base–指定对数底endpoint–是否包含结束值将[start,end]均匀分成num个数字,再取base的幂。base默认以10为底常见用法:a = np.logspace(0,2,3)-------------a = [1,10,100]a = np.logspace(0,2,4)-------------a = [1 , 4.64 , 21.544

2021-04-26 09:19:31 75

原创 深度学习入门Affine层关于偏置的反向传播

在学习Affine层的时候,逆向传播时db = dy在纵向方向上的和,看到这我就有点懵逼了,想了很久,也算是相通了,但不确定这就是正确方法,仅供参考。m1.因为偏导数与其对应的参数形状是一致的,所以dy与y同型。从dy逆向传播到+号,加号在逆向传播中的作用仅仅是将导数原封不动继续往前传递,而b是一个一维数组,所以肯定是将dy横向或纵向相加,再结合广播的原理,可以得出应该是横向相加。(个人感觉方法2更加靠谱点哈哈)m2.正向传播时在Y之后即求损失函数L。而L通常需要使用np.sum函数,在此处为方便.

2021-04-19 19:17:09 1439 9

原创 深度学习入门numpy常见函数

最近在学习日本的斋藤康毅老师的深度学习入门,对书中的numpy库函数不太了解,在此记录一下。注:!!!这里只是我在学习过程中遇到的函数,这些函数可能有更高深的用法,但在这仅限于书上所用到的!!np.zeros(shape, dtype=float, order=‘C’)shape是形状,dtype是数组类型,order是顺序,行优先或者列优先。常见用法:np.zeros(5)---------生成5个0的一维数组np.zeros((2,3))------------------生成一个两行三列的0

2021-04-12 13:01:21 126

原创 PAT乙级1008 数组元素循环右移问题

这是小白新手写的第一篇文章,不喜勿喷。因为报考学校的网站登不进去,所以就使用了pat。废话不多说,来说一下我对这题的思路。1.由一个简单的函数演变过来void reverse(int arr[],int left,int right,int len){int temp,i,j;for(i=left,j=right;i<left+len&&i<j;i++,j–){temp=arr[i];arr[i]=arr[j];arr[j]=temp;}}这是一个非常

2021-01-12 21:23:37 66

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除