pytorch
基础
Tralia~
这个作者很懒,什么都没留下…
展开
-
街景字符识别task5学习笔记
深度学习中的集成学习1 DropoutDropout可以作为训练深度神经网络的一种技巧。在每个训练批次中,通过随机让一部分的节点停止工作。同时在预测的过程中让所有的节点都其作用,Dropout经常出现在在先有的CNN网络中,可以有效的缓解模型过拟合的情况,也可以在预测时增加模型的精度。加入Dropout后的网络结构如下:class SVHN_Model1(nn.Module): def __init__(self): super(SVHN_Model1, self).__i原创 2020-06-02 19:38:31 · 143 阅读 · 2 评论 -
街景字符识别task4学习笔记
在baseline基础上尝试过多种可能提高模型预测精度的思路,其中只有两种获得了一定程度的提升:(1)增加数据扩增多样性,降低过拟合;(2)将全连接层改为卷积层。1 增加数据扩增多样性train_loader = torch.utils.data.DataLoader( SVHNDataset(train_path, train_label, transforms.Compose([ transforms.Resize((6原创 2020-05-30 21:06:52 · 188 阅读 · 0 评论 -
街景字符识别task3学习笔记
使用pytorch构建一个简单的CNN模型,完成字符识别功能,代码如下:# 定义模型class SVHN_Model1(nn.Module): def __init__(self): super(SVHN_Model1, self).__init__() # CNN提取特征模块 self.cnn = nn.Sequential( nn.Conv2d(3, 16, kernel_size=(3, 3), stride=(2,原创 2020-05-26 20:56:42 · 142 阅读 · 0 评论 -
街景字符识别task2学习笔记
1.cv2读取数据默认是BGR格式,转换成RGB格式为:img = cv2.imread(‘cat.jpg’)img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)2.cv2格式与PIL格式互转:PIL转cv2pil_image = PIL.Image.open(‘image.jpg’)cv_image = cv2.cvtColor(numpy.asarray(pil_image), cv2.COLOR_RGB2BGR)cv2转PILpil_im2 = Imag原创 2020-05-23 19:44:42 · 152 阅读 · 0 评论 -
街景字符识别Task1学习笔记
1.本人使用的笔记本显卡是GTX1660Ti-MQ 6G,使用GPU跑baseline需要将步骤5的use_cuda改成True。2.在运行程序时候遇到如下报错:原因是GPU里存的tensor无法转为numpy数组,需要先转为cpu类型的tensor,解决方案如下:在data后加.cpu()即可。3.程序跑通后将epoch设置为10,其他超参不变的情况下,比较batchsize分别为30,40,64时模型迭代10后的效果发现batchsize=40时效果最好,可以在batchsize为40与64之间原创 2020-05-20 18:10:46 · 149 阅读 · 0 评论 -
pytorch中的eq()/gt()/lt()/t()/topk()函数
a = torch.Tensor([0.1,0.8])b = torch.Tensor([0,1])c = torch.Tensor([[2,1],[3,4]])print('a等于b:',a.eq(b))print('a大于b:',a.gt(b))print('a小于b:',a.lt(b))print('c:',c)print('c转置:',c.t())#print结果为a等于b: tensor([False, False])a大于b: tensor([ True, False])原创 2020-07-17 22:01:11 · 2237 阅读 · 3 评论