![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
2021乐乐
交流学习
展开
-
PCA 主成成分分析方法
参考PCA的数学原理[转]Matlab求方差,均值,均方差,协方差的函数PCA 算法的两个矩阵相乘的意义是将右边矩阵中的每一列列向量变换到左边矩阵中每一行行向量为基所表示的空间中去。更抽象的说,一个矩阵可以表示一种线性变换。上面我们讨论了选择不同的基可以对同样一组数据给出不同的表示,而且如果基的数量少于向量本身的维数,则可以达到降维的效果。将一组N维向量降为K维(K大于0,...转载 2020-02-26 18:56:15 · 164 阅读 · 0 评论 -
RuntimeError: running_mean should contain 250 elements not 240
self.layer2 = nn.BatchNorm1d(250)将参数240 改为250 既可以原创 2020-03-14 10:17:45 · 2213 阅读 · 0 评论 -
RuntimeError: Expected object of backend CPU but got backend CUDA for argument #4 'mat1'
data=data.cuda()原创 2020-03-11 14:32:41 · 621 阅读 · 0 评论 -
pytorch data 和 label shape 的变化
1:out: torch.Size([128, 5]) torch.Size([128, 1, 5])2: 利用label.view() 进行转化 print("out:",out.shape,label.shape) label = label.view(out.shape[0], out.shape[1]) print(label.shape) ...原创 2020-01-12 00:09:13 · 956 阅读 · 0 评论 -
pytorch 利用BP神经网路对坐标区域进行分类
代码test 部分是meng yu hong 写的import numpy as npimport scipy.io as scioimport torch import torch.nn.functional as Funimport torch.nn as nnimport torchvisionimport torchvision.transforms as transfo...原创 2020-01-11 22:24:20 · 540 阅读 · 0 评论 -
one-hot 编码 (字符串和数字类型的标签)
在用Pytorch 验证标签的时候,建议使用ont-hot 编码,这样比较容易实现既定的功能。直接上代码: 字符串类型 本代码将hello world 换做了矩阵from numpy import argmax# define input stringdata = 'hello world'print(data)# define universe of possible in...原创 2020-01-09 10:27:37 · 1818 阅读 · 0 评论 -
简单RNN网络
import numpy as npimport scipy.io as scioimport torch import torch.nn as nnimport torchvisionimport torchvision.transforms as transformsclass SimpleRnn(nn.Module): def __init__(self,inp...原创 2020-01-06 19:42:26 · 233 阅读 · 0 评论 -
简单的LSTM神经网络
import numpy as npimport scipy.io as scioimport torch import torch.nn as nnimport torchvisionimport torchvision.transforms as transformsfrom torch.autograd import Variableclass simpleLSTM(nn.M...原创 2020-01-06 20:52:57 · 413 阅读 · 1 评论 -
pytorch Variable变量
1:tensor不能反向传播,variable可以反向传播。2:Variable计算时,它会逐渐地生成计算图。这个图就是将所有的计算节点都连接起来,最后进行误差反向传递的时候,一次性将所有Variable里面的梯度都计算出来,而tensor就没有这个能力。3:variable 如何转化为numpy4:Variable有一个名叫data的字段,可以通过它获得被包装起来的那个原始的Ten...转载 2020-01-05 12:02:07 · 344 阅读 · 0 评论 -
pytorch tensor 数据类型的转换
tensor 一共包含的数据类型,数据class DoubleTensor(Tensor): ...class FloatTensor(Tensor): ...class LongTensor(Tensor): ...class IntTensor(Tensor): ...class ShortTensor(Tensor): ...class CharTensor(Tensor...原创 2020-01-05 11:40:31 · 584 阅读 · 0 评论 -
pytorch 之 manual_seed
pytorch 之 manual_seed 的源程序如下,作用:产生固定的随机数def manual_seed(seed): r"""Sets the seed for generating random numbers. Returns a `torch.Generator` object. Args: seed (int): The de...原创 2020-01-05 10:43:31 · 525 阅读 · 0 评论 -
pytorch Dropout
减低过拟合,一般可以通过:加大训练集、loss function 加入正则化项、Dropout 等途径。本文的主要作用是展示dropout 的作用设置Dropout时,torch.nn.Dropout(0.5), 这里的 0.5 是指该层(layer)的神经元在每次迭代训练时会随机有 50% 的可能性被丢弃(失活),不参与训练,一般多神经元的 layer 设置随机失活的可能性比神经元少的高。...转载 2020-01-05 10:57:29 · 320 阅读 · 0 评论 -
行为特征常用的提取方法
转载知乎:https://www.zhihu.com/question/41068341/answer/89926233转载 2019-12-14 14:01:57 · 833 阅读 · 0 评论 -
torch.zeros()
Python 3.5.4 (v3.5.4:3f56838, Aug 8 2017, 02:17:05) [MSC v.1900 64 bit (AMD64)] on win32Type "copyright", "credits" or "license()" for more information.>>> import torch>>> torch...原创 2019-12-11 16:26:52 · 1858 阅读 · 0 评论 -
win10安装pytorch 出现._vendor.urllib3.exceptions.ReadTimeoutError: HTTPSConnectionPool(host='download.py
解决方法:如果你是python2 则是 :pip --default-timeout=100 install Package 如果你是python3 则是: pip3 --default-timeout=100 install Package Package 通常用第三...原创 2019-08-02 19:33:16 · 3378 阅读 · 0 评论 -
pytorch 中文手册
作为一个勤劳的搬运工:pytorch 中文手册第二份资料:https://pytorch-cn.readthedocs.io/zh/latest/package_references/torch-autograd/创建一个神经网络:https://www.cnblogs.com/CATHY-MU/p/7760570.htmlpytorch +LSTM :https://www.ausd...转载 2019-04-14 15:11:59 · 5922 阅读 · 0 评论 -
Deep Residual Network
先阅读者两篇写的比较好的博客https://blog.csdn.net/dulingtingzi/article/details/79870486https://blog.csdn.net/qq_31050167/article/details/79161077代码链接:https://github.com/yunjey/pytorch-tutorial/blob/master/tut...转载 2018-12-17 21:24:53 · 259 阅读 · 0 评论 -
Pytorch---CNN
CNN网络输入层、隐藏层(卷积层和池化层)、输出层。卷积神经网络的特殊性体现在两个方面,一方面是神经元之间的连接不是全连接,另一方面是同一层中某些神经元之间的权重值是共享的。因此学习CNN主要是学习卷积层和池化层。1.学习CNN 神经网络首先得知道卷积的原理:1 1 1 1 0 0 1 1 0 1 1 0 0 1 ...转载 2018-12-14 22:46:43 · 105 阅读 · 0 评论 -
pyTorch 保存提取模型
训练一个好的模型不容易, 因此模型的保存和提取很重要,还有一种方法就是可以冻结模型的参数。1.模型的保存有两种方式torch.save(model, 'net')#把整个网络都保存下来torch.save(model.state_dict(), 'net_params.pkl') # 只保存网络中的参数 (速度快, 占内存少)2.模型的提取net1=torch.loa...原创 2018-12-12 21:38:44 · 1106 阅读 · 0 评论 -
pytorch 线性回归数据集显示
法1:import numpy as npimport torchimport matplotlib.pyplot as pltx_train = np.array([[3.3], [4.4], [5.5], [6.71], [6.93], [4.168], [9.779], [6.182], [7.59], [2.167], [7.042]...原创 2018-12-12 20:49:45 · 512 阅读 · 0 评论 -
Pytorch 读取和下载数据及其优化
pytorch 采用此方式读取数据:torch.utils.data.DataLoader来定义一个新的迭代器dataiter = DataLoader (myDataset, ba tch size=3 2, shuffle=True , collate fn=default collate)test_loader = torch.utils.data.DataLoader(da...转载 2018-12-12 22:14:50 · 496 阅读 · 0 评论 -
展示MNIST数据集
import torchimport torch.nn as nnimport torchvisionimport torchvision.transforms as transformsimport matplotlib.pyplot as plt# Device configurationdevice = torch.device('cuda' if torch.cuda.is...原创 2018-12-11 21:52:23 · 633 阅读 · 0 评论 -
python 文件路径(pytorch 数据集)
最近学深度学习,发现需要跑数据集,数据通常存在data文件夹下。本文主要帮助那些看完代码后,不能正确安放数据集路径的同学。案例1: train_dataset = torchvision.datasets.MNIST(root='../../data', train=True, ...原创 2018-12-08 11:40:12 · 18659 阅读 · 2 评论 -
PyTorch 之Varible
构建Variable. 要谊意得传入一个参数 requires_grad=True ,这个参数表 是否对这个变量求梯度,默认的 Fa!se ,也就是不对这个变量求梯度,这里我们希望得到这些变量的梯度,所以需要传入这个参数从的代码中,我们看到了一行 y.backward() ,这 行代码就是所谓的自动求导,import torchimport torch.nn.functional as F...转载 2018-12-07 10:57:07 · 174 阅读 · 0 评论 -
转载:莫凡线性回归
import torchimport torch.nn.functional as Fimport matplotlib.pyplot as plt# torch.manual_seed(1) # reproduciblex = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1) # x data (tensor), shap...转载 2018-12-07 10:37:21 · 207 阅读 · 0 评论 -
最小二乘法 python
最小二乘法非常简单,我把它分成两种视角描述:(1)已知多条近似交汇于同一个点的直线,想求解出一个近似交点:寻找到一个距离所有直线距离平方和最小的点,该点即最小二乘解;(2)已知多个近似分布于同一直线上的点,想拟合出一个直线方程:设该直线方程为y=kx+b,调整参数k和b,使得所有点到该直线的距离平方之和最小,设此时满足要求的k=k0,b=b0,则直线方程为y=k0x+b0。转载内容看p...转载 2018-12-07 10:31:25 · 395 阅读 · 0 评论 -
pytorch中的 relu、sigmoid、tanh、softplus 函数
四种基本激励函数是需要掌握的:1.relu 线性整流函数(Rectified Linear Unit, ReLU),又称修正线性单元, 是一种人工神经网络中常用的激活函数(activation function),通常指代以斜坡函数及其变种为代表的非线性函数。通常意义下,线性整流函数代指代数学中的斜坡函数,即而在神经网络中,线性整流函数作为神经元的激活函数,定义了该神经元在线性变换 ...转载 2018-12-06 21:14:29 · 58364 阅读 · 5 评论 -
张量的科学运算
程序:print(torch.arange(3))tp=torch.pow(torch.arange(1,4),torch.arange(3))#123 , 012 print(tp)te=torch.exp(torch.tensor([0.1,-0.01]))print(te)运行结果: 一维张量与一维张量之间的张量点积 torch.dot(s,z)二维张量与一...原创 2018-12-05 17:25:11 · 494 阅读 · 0 评论 -
张量的扩展和拼接
复制t12= torch.tensor([[5.,-9.],])#大小(3,4)print('t12={}'.format(t12))t34= t12.repeat(3,2)#三行,每一行复制2次print('t34={}'.format(t34))运行结果:t12=tensor([[ 5., -9.]])t34=tensor([[ 5., -9., 5., -9.],...原创 2018-12-05 16:53:51 · 3957 阅读 · 1 评论 -
选取部分张量元素
代码1:t=torch.arange(12)print(t)print(t[3],t[0])print(t[-5])print(t[3:6])#个数为3print(t[:6])print(t[-5:])print(t[3:6:2])#2表示只有2个元素print(t[3::2])#以2位方差 运行结果:代码2 : t= torch.arange(24)...原创 2018-12-05 16:40:10 · 1893 阅读 · 0 评论 -
pytorch 张量
例程1:import torcht2=torch.tensor([[0,1,2],[3,4,5]])print(t2)print('数据={}'.format(t2))print(t2.reshape(3,2))print(t2+1)print('大小={}'.format(t2.size()))print('维度={}'.format(t2.dim()))print('元素...原创 2018-12-05 15:07:05 · 1155 阅读 · 0 评论 -
feedforward neural network 学习笔记
前置神经网络是 是BP,CNN,RNN 的基础 , 先留个接口。后面再补充自己思考的内容。参考:深度学习笔记(1)--前馈神经网络wiki 百科前馈神经网络code:https://github.com/yunjey/pytorch-tutorial/blob/master/tutorials/01-basics/feedforward_neural_networ...转载 2019-12-09 11:44:02 · 244 阅读 · 0 评论 -
torch 官方手册, 学习torch 的神器,以及相关经典帖子
1: 官方手册: https://pytorch.org/docs/stable/torch.html?highlight=torch%20max#torch.max2:深度学习中的batch、epoch、iteration的含义转载 2019-12-06 21:30:03 · 644 阅读 · 0 评论 -
iris 数据分类
转载:#coding=utf-8"""#演示目的:利用鸢尾花数据集画出P-R曲线,mooc"""print(__doc__)import matplotlib.pyplot as pltimport numpy as npfrom sklearn import svm, datasetsfrom sklearn.metrics import precision_reca...转载 2019-10-25 17:01:43 · 1319 阅读 · 0 评论 -
softmax 函数
机器学习分为两种,一种是做分类,一种是做回归。softmax函数就是用来做分类的。softmax 函数定义:import numpy as npa=np.array([0.3,2.9,4.0])def softmax(a): c=np.max(a) exp_a=np.exp(a-c) sum_exp_a=np.sum(exp_a) y=e...原创 2019-08-13 23:06:16 · 254 阅读 · 0 评论 -
深度学习基础知识(1)
1:将数据集和测试集分开是为了提高模型的泛化能力。泛化能力是指未处理过的数据能力,获取模型的泛化能力是机器学习的目标,避免过拟合是机器学习的重要内容。2: 神经网络所用的指标称为损失函数,损失函数可以使用任意函数,但是一般用均方误差和交叉熵的表示比较多。3: mini-batch 学习;用随机选取的小批量数据作为全体训练数据的近似值。4: 为什么要设置损失函数为指标,在微小参数变化的...原创 2019-08-08 16:03:51 · 109 阅读 · 0 评论