- 博客(26)
- 收藏
- 关注
原创 python中@的作用
class Pizza(object): def __init__(self): self.toppings = [] def __call__(self, topping): # When using '@instance_of_pizza' before a function definition # the function...
2020-05-04 12:37:31
412
原创 colab使用指南(二)-加速训练时间。
从gdrive中读取训练集再去训练深度模型可能会非常的慢。因为colab会一个batch一个batch copy gdrive中的data到自己的一个工作目录下。即! pwd>>>/content解决方法:1.将所有的数据集的zip文件都先copy到gdrive的content目录下2.在content中解压zip文件3.删除zip文件释放空间zi...
2020-05-01 09:38:13
1950
3
原创 colab使用指南(一)-切换路径/运行文件/从github中拷贝/网页文件下载/解压
1.将colab运行目录切换到Google Drive上from google.colab import drivedrive.mount('/gdrive')%cd /gdrive/My\ Drive/Disable\ Object\ Detection\ Systerm2.运行目录中代码! ipython setup.py3.从github拷贝代码到当前目录下!...
2020-04-30 21:42:13
3873
原创 torch.narrow(input,dim,start,length)或者tensor.narrow(dim,start,length)
narrow可以理解为对张量的一种剪裁,且他们共用相同的storgea=torch.tensor([i for i in range(0,9)]).reshape(3,3)print(a)b=torch.narrow(input=a,dim=0,start=0,length=2)b#output:tensor([[0, 1, 2], [3, 4, 5], ...
2020-04-15 15:04:58
382
原创 argsort()
a=np.array([3,5,1,2,2,6])a.argsort()#output:array([2, 3, 4, 0, 1, 5])argsort返回数据从小到大的索引值a=np.array([3,5,1,2,2,6])a.argsort()[::-1]#output:array([5, 1, 0, 4, 3, 2])这样可以返回从大到小...
2020-04-14 12:07:58
333
原创 np.where(condition)
np.where返回满足内部条件的数列a中的索引值。np.where(condition)[0]返回一个numpy数列。a=np.array([3,4,5,7,8])np.where(a>7)[0]#output:array([4])a=np.array([3,4,5,7,8])b=np.array([1,2,3,4,5])np.where((a>=5)&...
2020-04-14 11:56:07
642
1
原创 np.clip(a,a_min,a_max,out=None)
clip这个函数将input数组中的元素限制在min, max之间;大于max的就使得它等于 max;小于min,的就使得它等于min。
2020-04-14 11:19:17
317
原创 slice(start,end,step)
相当于截取列表的一种方法。1.当只输入一个参数,默认为enda = ["a", "b", "c", "d"]x = slice(3)a[x]#output:['a', 'b', 'c']2.当输入两个参数时,默认为start 和anda = ["a", "b", "c", "d"]x = slice(1,3)a[x]#output:['b','b']3.输入三个...
2020-04-14 11:10:57
596
原创 tensor.contiguous()
Returns acontiguoustensor containing the same data asselftensor. Ifselftensor iscontiguous, this function returns theselftensor.普通的张良在内存中都是连续存放的,然而有些张量经过一些处理后(如permute)后就不是连续的了,此时这些张量无法用基于连...
2020-04-03 14:45:47
498
原创 tensor.permute(dim_index)
改变张量维度排列>>> x = torch.randn(2, 3, 5)>>> x.size()torch.Size([2, 3, 5])>>> x.permute(2, 0, 1).size()torch.Size([5, 2, 3])
2020-04-03 14:31:05
354
原创 torch.max(input,dim)
a=torch.randn(1,2,3)b=torch.max(a,dim=0).valuesc=torch.max(a,dim=1).valuesd=torch.max(a,dim=2).valuesb.shape=[2,3]c.shape=[1,3]d.shape=[1,2]
2020-03-07 11:34:11
850
原创 torch.cat 张量合并
合并:torch.cat(inputs=(a, b), dimension=1)将a,b沿着第1维合并,dimension=-1时沿着最后一维合并。
2020-03-07 10:58:26
1412
原创 torch.nn.functional.fold
torch.nn.functional.fold(input,output_size,kernel_size,dilation=1,padding=0,stride=1)将一组滑动局部块张量组合成一个包含这些张量的大张量。注意:Currently, only 4-D output tensors (batched image-like tensors) are support...
2020-03-06 18:58:58
1746
原创 torch.nn.functional.unfold
torch.nn.functional.unfold(input,kernel_size,dilation=1,padding=0,stride=1)从批量的输入张量中(batch_size,channel,H,W)提取滑动局部块(kernel_size的正方形)。Warning:Currently, only 4-D input tensors (batched image-li...
2020-03-06 18:03:02
3386
原创 pytorch模型的保存
# 保存和加载整个模型torch.save(model_object, 'model.pkl')model = torch.load('model.pkl')# 仅保存和加载模型参数(推荐使用)torch.save(model_object.state_dict(), 'params.pkl')model_object.load_state_dict(torch.load('par...
2020-02-23 09:14:16
162
原创 torchvision数据集导入
CIFAR10transform = torchvision.transforms.Compose( [transforms.ToTensor(), transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))]) #首先torchvision输出的图片的范围都是[0,1] ...
2020-02-23 08:52:52
1392
原创 tensor.scatter_(dim,index,src)的用法
a.scatter_(dim,index,src)意味着根据某种规则将src中数据写入到a当中去,而这种规则正是由dim和index所决定。self[index[i][j][k]][j][k] = src[i][j][k] # if dim == 0self[i][index[i][j][k]][k] = src[i][j][k] # if dim == 1self[i][j][in...
2020-02-21 22:47:02
994
原创 torch.autograd.Variable(tensor,requires_grad=False,volatile=True)
Variable:类似于一个tensor的升级版,里面包含了requires_grad,grad_fn,voliatea=Variable(torch.tensor([1]),volatile=True)b=Variable(torch.tensor([1]),requires_grad=False)voliate:当atensor的requires_grad=True后,与a相连的...
2020-02-20 12:26:41
2906
原创 学习方法论
学习不仅仅是掌握知识,还应该有意识地提高自己的思维能力。秉承着这样的思想我写下了这篇文章。开始有自己的list ,目标明确地学习。需要什么学什么我试图将学习能力分为如下几个模块。1.概念的理解 2.概念的吸收 3.知识的记忆 4.精神的力量 5.解决问题的能力1.概念的理解 我们需要建立系统思想和相对思想。 一个概念,它的定义离不开一个系统,也离不开它处于一个系统中...
2019-09-19 15:17:15
298
原创 python_matplotlib库介绍
https://matplotlib.org/tutorials/introductory/pyplot.html
2019-07-11 13:58:49
324
原创 《机器学习》正则化的含义
在线性回归和逻辑回归中,有时候为了获得更好的拟合效果,我们会引入特征值的多次项或者是复合项。这些特征值未必是必要的,过多此类的特征值会引起回归函数的过拟合。但若是特征值不足就会导致函数的欠拟合问题。所以为了约束不相关项的系数theta,增加正则项。对于logistic regression亦是在末尾添加这么一项。他们确保了在拟合一些不那么必要的theta值时,使这...
2019-03-19 09:45:32
345
原创 《机器学习》神经网络算法分析
神经网络的意义不得不承认,假设函数的格式很大程度上决定了我们所获得图像的样式,对于线性回归是与样本数据尽可能重合的那条直线,而在逻辑回归中就是所谓的决策边界。我们观察逻辑回归中的sigmoid函数不难发现对于theta*X这一项的存在,若是只输入单一的一次特征值,你只能得到一条为直线的决策边界。然而我们在特征数较少时,可以人为构造二次项,三次项…再通过正则化得到一个比较符合分类的曲线。 ...
2019-03-09 19:54:04
537
原创 《机器学习》逻辑回归与线性回归算法分析
<<机器学习一>>—浅谈逻辑回归与线性回归假设函数线性回归中假设函数就是一个去拟合训练集的线性函数而在
2019-03-08 18:58:11
377
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人