自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 subplot多合一画图

import matplotlib.pyplot as pltplt.figure()plt.subplot(2, 2, 1)plt.plot([0, 1], [0, 1])plt.subplot(2, 2, 2)plt.plot([4, 1], [0, 1])plt.subplot(2, 2, 3)plt.plot([0, 2], [0, 1])plt.subplot(...

2019-08-08 11:40:16 676

原创 matplotlib图片显示

import matplotlib.pyplot as pltimport numpy as np用array假装有一张9个像素点的图片a = np.array([0.333333333, 0.366666666, 0.422222222, 0.366666666, 0.433333333, 0.522222222, 0.422222...

2019-08-08 10:56:36 2418

原创 matplotlib画散点图,柱状图,等高线图

散点图T是计算颜色,不用太在意alpha是透明度plt.xticks(())plt.yticks(())是隐藏坐标轴import matplotlib.pyplot as pltimport numpy as npn = 1024X = np.random.normal(0, 1, n)Y = np.random.normal(0, 1, n)T = np.arctan2(...

2019-08-07 21:49:40 576

原创 matplotlib基本操作

import matplotlib.pyplot as pltimport numpy as np写出两条线的方程,x是-3到3之间50个数的等差数列x = np.linspace(-3, 3, 50)y1 = 2 * x + 1y2 = x ** 2定义一个figure下的所有操作都属于这个figureplt.figure()plt.plot(x, y1)定义第二个fig...

2019-08-07 20:47:23 194

原创 读取并预处理自己数据集的一种方式

引入必要的包from torchvision.datasets import ImageFolderimport matplotlib.pyplot as pltfrom torchvision import transforms as tfsfrom torch.utils.data import DataLoaderimport numpy as npimport torch加...

2019-08-07 09:32:25 842

原创 简单GoogLeNet实现

import numpy as npimport torchfrom torch import nnfrom torch.autograd import Variabledef conv_relu(in_channel, out_channel, kernel, stride=1, padding=0): layer = nn.Sequential( nn.Con...

2019-08-06 10:45:32 378

原创 构建一个简单的VGG网络

import torchfrom torch.autograd import Variablefrom torch import nndef vgg_block(num_convs, input_channels, output_channels): net = [ nn.Conv2d(input_channels, output_channels, kernel_...

2019-08-05 21:31:04 659

原创 查看下载数据集中的图片

import matplotlib.pyplot as plt下载数据集,并将数据集变成DataLoader类型train_set = CIFAR10('./data', train=True, transform=data_tf,download=True)train_data = torch.utils.data.DataLoader(train_set, batch_size=64,...

2019-08-05 20:42:08 297

原创 train函数

每次训练都测试def get_acc(output,label): total = output.shape[0] _,pred_label = output.max(1) return (pred_label == label).sum().data.item()/totaldef train(net,train_data,valid_data,num_epochs...

2019-08-05 16:58:33 4310

原创 优化算法5:--Adadelta算法

Adadelta算法是Adagrad算法的延伸,与RMSProp算法一样,是为了解决Adagrad中学习率不断减小的问题,RMSProp是通过移动加权平均的方式,Adadelta也一样,并且Adadelta不需要学习率这个参数RMSProp算法Adadelta的分母和RMSProp的分母一致需要更新参数的变化量为分子表示的是每次更新梯度变化量的累加量最后的参数更新如下实现opt...

2019-08-01 21:18:59 4642

原创 优化算法3,4--Adagrad算法与RMSProp算法

思想:如果一个参数的梯度一直都非常大,就让它的学习率变小一点,防止震动,反之,则让其学习率变大,使其能更快更新做法:学习率由下列式子所得+后的参数是为了防止分母等于0,一般取10的-10次方对每个参数,初始化一个变量s=0,每次参数更新时,将梯度平方求和累加到s上所以梯度越大,累加得s越大,学习率越小缺点:到后期,分母越来越大,学习率会变得较小,无法较好的收敛from torch.u...

2019-08-01 20:09:51 1339

原创 优化算法2--动量法

起始点a到b点的梯度下降记为n1b点到c点的实际梯度由两方面组成v (t) =γv(t-1) +α∇b+前面是n1的γ倍,通常取0.9(为什么<1?因为要减小早期的梯度影响)+后面α是学习率,∇b是b点理论上的梯度下降有很多点之后,v(t-1)指的是之前所有步骤累加的动量和from torch.utils.data import DataLoaderfrom torch imp...

2019-08-01 19:44:55 1068

原创 优化算法1:随机梯度下降法

梯度下降公式很简单import numpy as npimport torchfrom torchvision.datasets import MNISTfrom torch.utils.data import DataLoaderfrom torch import nnfrom torch.autograd import Variableimport timeimport ma...

2019-08-01 16:48:54 398

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除