自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 收藏
  • 关注

原创 算法效率和初等排序

借鉴自:算法专栏一、时间复杂度1.算法效率算法效率的评估:时间复杂度和空间复杂度空间复杂度:执行程序所需要的存储空间,算法程序对计算机内存的使用情况时间复杂度:不是表示一个程序解决问题具体需要花多少时间,而是当问题规模扩大后,程序需要的时间长度增长的有多快。衡量一个程序的好坏要看数据规模变大到数百倍后程序的运行时间是如何变化的。设计算法是首先考虑系统环境,然后权衡时间复杂度和空间复杂度,寻找一个平衡点,而时间复杂度往往比空间复杂度更容易产生问题,因此时间复杂度是算法研发的主要部分。

2021-10-12 21:25:58 189

原创 x.squeeze()、x.unsqueeze()用法

x.squeeze(dim)用途:进行维度压缩,去掉tensor中维数为1的维度参数设置:如果设置dim=a,就是去掉指定维度中维数为1的示例:import torchx = torch.tensor([[[1],[2]],[[3],[4]]])print('x:',x)x1 = x.squeeze()print('x1:',x1)x2 = x.squeeze(2)print('x2:',x2)输出:x: tensor([[[1], [2]],.

2021-07-26 10:57:58 9968

原创 Pytorch深度学习实践 第十三讲 循环神经网络(高级篇)

数据集:

2021-07-24 18:09:02 1464 2

原创 Pytorch深度学习实践 第十二讲 循环神经网络(基础篇)

循环神经网络RNN:用来处理有序列关系的输入,比如预测天气时,今天的天气要依赖于上一天的天气数据,多用于天气、股票、自然语言处理等。RNN Cell结构所有的RNN Cell是同一个Linear模块,只不过是循环使用它对不同的输入序列来进行计算和更新权重:初始化H0=0,是个向量for Xi in X: Hi = Linear(Xi, Hi-1)torch.nn.RNNCell()模块seqLen是序列长度,即x1~x3inputSize是每个...

2021-07-24 16:16:10 1763 2

原创 Pytorch深度学习实践 第十一讲 卷积神经网络(高级篇)

减少代码冗余:将某些重复调用的代码封装成类或函数。GoogleNet网络结构有很多相同的Inception模块组成,就将此模块写成一个类,方便重复调用。Inception模块的结构关于为什么采用1×1的卷积核:通过采用1×1的卷积核计算量减少了10倍。示例代码:import torch.nn as nnimport torch.nn.functional as Fimport torchfrom torch.utils.data import Data...

2021-07-23 18:13:12 875

原创 Pytorch深度学习实践 第十讲 卷积神经网络(基础篇)

全连接神经网络:全都是线性层串起来。卷积神经网络CNN:3通道卷积过程:n通道输入得到m通道输出:(每一个filter都有n个卷积核,输入通道数=卷积核数,filter数=输出通道数 )单个卷积层示例代码:import torchin_channel,out_channel = 5,10kernel_size = 3batch_size = 1 #小批量的第几个w, h = 100, 100input = torch.randn(batc...

2021-07-22 16:23:10 550

原创 Pytorch深度学习实践 第九讲 多分类问题

使用SoftMax分类器进行多分类问题(其输入不需要Relu激活,而是直接连接线性层),经过SoftMax分类器后满足:1.大于等于0,2.所有类别概率和为1.Softmax函数:使用Numpy计算交叉熵损失的过程:(One-hot是一行或一列只有一位是1的矩阵)使用Pytorch计算交叉熵损失:(torch.LongTensor([0])对应的one-hot是[1 0 0],即只有索引0对应的位置是1)CrossEntropyLoss()就是将softmax-lo...

2021-07-22 14:55:40 496

原创 Pytorch深度学习实践 第八讲 加载数据集

Epoch:所有样本都进行一次forward和backward。Batch_size:训练样本中一次forward和backward的样本数。Iteration:内迭代的次数,即训练集中有多少个batch_size,总样本数N/Batch_size。Dataloader中的batch和shuffle:示例代码:(还是diabetes.csv.gz数据集)import torchimport numpy as npfrom torch.utils.data import Data

2021-07-22 10:34:38 417

原创 Pytorch深度学习实践 第七讲 处理多维特征的输入

一行表示一个样本,用(x1-x8)8个特征对这一个样本进行表示,特征的维度是一列(O即手写图中的Z)给Linear设置不同的输入、输出维度。把多个类似于logisc回归这种线性变换单元首尾相连,就能构造多层神经网络。...

2021-07-21 21:28:55 509

原创 Pytorch深度学习实践 第六讲 逻辑回归

分类问题不是让“预测值”等于“类别”,而是计算属于每个类别的概率,要概率最大的。(将预测值从实数空间映射到[0,1])

2021-07-21 14:45:43 435

原创 Pytorch深度学习实践 第五讲 用pytorch实现线性回归

模型训练的步骤(基本通用):1.准备数据集;2.设计模型来计算;3.构造损失函数和优化器,using pytorch API;4.循环计算 forward、backward、update要确定w,就要知道x和的维度,上图中y:3×1,x:3×1,w就得是3×3的。计算图中的Linear Unit就可以直接用torch.nn.Linear(in_feature,out_feature,bias=True)来构造,in_feature是输入维度(维度是矩阵的列),out_fe..

2021-07-20 16:47:11 320

原创 Pytorch深度学习实践 第四讲 反向传播

确定输入和隐层矩阵→得到权重w矩阵。Forward and Backward:线性模型的计算图,正向和反向过程:关于Tensor:存数据,包含标量、向量、矩阵等。示例代码:(代码是在构建计算图,要有这种思维。)import torchx_data = [1.0, 2.0, 3.0]y_data = [2.0, 4.0, 6.0]#tensor中包含data(w)和grad(loss对w求导)w = torch.Tensor([1.0]) #w=1.0w...

2021-07-20 14:38:38 455

原创 Pytorch深度学习实践 第三讲 梯度下降算法

1.梯度下降梯度下降算法:每次迭代都朝梯度下降最快的方向走。梯度优化:找使目标损失函数最小的权重组合的任务(不一定得到最优,只能得到局部最优)。权重更新的推导:示例代码:import numpy as npimport matplotlib.pyplot as pltw = 1.0x_data = [1.0, 2.0, 3.0]y_data = [2.0, 4.0, 6.0]def forward(x): '求预测值:y_hat = x * w' ..

2021-07-19 16:50:38 491

原创 pytorch深度学习实践 第二讲 线性模型

机器学习过程:Dataset→Model Select→Training→推理过拟合:训练集上有很好的结果,但是训练集外却不能很好的拟合数据。主要原因是训练集存在噪声或训练数据太少。泛化:训练出的模型在训练集外同样适用。数据集:训练集(通常还会分成训练集和开发集,用作模型评估)和测试集。线性模型:y_hat = f(x) = wx + b,训练的目的就是得到w和b。损失loss:预测值与真实值之间的差值。平均平方误差(Mean Square Error)MSE:cost.

2021-07-19 15:20:08 186

原创 Pytorch深度学习实践 第一讲

Deep Leanning只是AI的一小部分forward/backwark:正向传播,反向传播,都是求偏导数进行梯度计算。

2021-07-19 10:27:47 193

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除