自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 subplot多合一画图

import matplotlib.pyplot as plt plt.figure() plt.subplot(2, 2, 1) plt.plot([0, 1], [0, 1]) plt.subplot(2, 2, 2) plt.plot([4, 1], [0, 1]) plt.subplot(2, 2, 3) plt.plot([0, 2], [0, 1]) plt.subplot(...

2019-08-08 11:40:16 676

原创 matplotlib图片显示

import matplotlib.pyplot as plt import numpy as np 用array假装有一张9个像素点的图片 a = np.array([0.333333333, 0.366666666, 0.422222222, 0.366666666, 0.433333333, 0.522222222, 0.422222...

2019-08-08 10:56:36 2416

原创 matplotlib画散点图,柱状图,等高线图

散点图 T是计算颜色,不用太在意 alpha是透明度 plt.xticks(()) plt.yticks(())是隐藏坐标轴 import matplotlib.pyplot as plt import numpy as np n = 1024 X = np.random.normal(0, 1, n) Y = np.random.normal(0, 1, n) T = np.arctan2(...

2019-08-07 21:49:40 576

原创 matplotlib基本操作

import matplotlib.pyplot as plt import numpy as np 写出两条线的方程,x是-3到3之间50个数的等差数列 x = np.linspace(-3, 3, 50) y1 = 2 * x + 1 y2 = x ** 2 定义一个figure下的所有操作都属于这个figure plt.figure() plt.plot(x, y1) 定义第二个fig...

2019-08-07 20:47:23 194

原创 读取并预处理自己数据集的一种方式

引入必要的包 from torchvision.datasets import ImageFolder import matplotlib.pyplot as plt from torchvision import transforms as tfs from torch.utils.data import DataLoader import numpy as np import torch 加...

2019-08-07 09:32:25 842

原创 简单GoogLeNet实现

import numpy as np import torch from torch import nn from torch.autograd import Variable def conv_relu(in_channel, out_channel, kernel, stride=1, padding=0): layer = nn.Sequential( nn.Con...

2019-08-06 10:45:32 377

原创 构建一个简单的VGG网络

import torch from torch.autograd import Variable from torch import nn def vgg_block(num_convs, input_channels, output_channels): net = [ nn.Conv2d(input_channels, output_channels, kernel_...

2019-08-05 21:31:04 659

原创 查看下载数据集中的图片

import matplotlib.pyplot as plt 下载数据集,并将数据集变成DataLoader类型 train_set = CIFAR10('./data', train=True, transform=data_tf,download=True) train_data = torch.utils.data.DataLoader(train_set, batch_size=64,...

2019-08-05 20:42:08 297

原创 train函数

每次训练都测试 def get_acc(output,label): total = output.shape[0] _,pred_label = output.max(1) return (pred_label == label).sum().data.item()/total def train(net,train_data,valid_data,num_epochs...

2019-08-05 16:58:33 4309

原创 优化算法5:--Adadelta算法

Adadelta算法是Adagrad算法的延伸,与RMSProp算法一样,是为了解决Adagrad中学习率不断减小的问题,RMSProp是通过移动加权平均的方式,Adadelta也一样,并且Adadelta不需要学习率这个参数 RMSProp算法 Adadelta的分母和RMSProp的分母一致 需要更新参数的变化量为 分子表示的是每次更新梯度变化量的累加量 最后的参数更新如下 实现 opt...

2019-08-01 21:18:59 4642

原创 优化算法3,4--Adagrad算法与RMSProp算法

思想:如果一个参数的梯度一直都非常大,就让它的学习率变小一点,防止震动,反之,则让其学习率变大,使其能更快更新 做法:学习率由下列式子所得 +后的参数是为了防止分母等于0,一般取10的-10次方 对每个参数,初始化一个变量s=0,每次参数更新时,将梯度平方求和累加到s上 所以梯度越大,累加得s越大,学习率越小 缺点:到后期,分母越来越大,学习率会变得较小,无法较好的收敛 from torch.u...

2019-08-01 20:09:51 1338

原创 优化算法2--动量法

起始点a到b点的梯度下降记为n1 b点到c点的实际梯度由两方面组成 v (t) =γv(t-1) +α∇b +前面是n1的γ倍,通常取0.9(为什么<1?因为要减小早期的梯度影响) +后面α是学习率,∇b是b点理论上的梯度下降 有很多点之后,v(t-1)指的是之前所有步骤累加的动量和 from torch.utils.data import DataLoader from torch imp...

2019-08-01 19:44:55 1066

原创 优化算法1:随机梯度下降法

梯度下降公式很简单 import numpy as np import torch from torchvision.datasets import MNIST from torch.utils.data import DataLoader from torch import nn from torch.autograd import Variable import time import ma...

2019-08-01 16:48:54 397

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除