自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(18)
  • 收藏
  • 关注

原创 pytorch tensorboardX可视化问题:AttributeError: 'torch._C.Value' object has no attribute 'debugName'

---------------------------------------------------------------------------AttributeError Traceback (most recent call last)<ipython-input-23-503284f04ef8> in <mo...

2019-10-14 13:17:24 1963 4

原创 稠密连接网络(DenseNet)--跑的结果

training on cpuepoch 1, loss 0.0071, train acc 0.839, test acc 0.794, time 7453.1 sec<bound method Module.state_dict of Sequential( (0): Reshape() (1): Conv2d(1, 64, kernel_size=(7, 7), st...

2019-10-14 13:17:05 442

原创 残差网络(ResNet)---cpu下的结果

先总结:残差块允许相对于恒等函数f(x)=x的参数化。•添加残差块可以通过有效的方式增加功能复杂性。•我们可以通过让残差块通过跨层数据通道来训练有效的深层神经网络。•resnet对以后的深层神经网络的设计产生了重大影响,无论是卷积性质还是序列性质。跑的结果:training on cpuepoch 1, loss 0.0030, train acc 0.791, test ...

2019-10-12 12:04:49 990

原创 批量归一化与未归一化的比较

未归一化的比较:training on cpuepoch 1, loss 0.0091, train acc 0.104, test acc 0.100, time 61.8 secepoch 2, loss 0.0053, train acc 0.464, test acc 0.611, time 59.1 secepoch 3, loss 0.0034, train acc 0.65...

2019-10-10 00:07:29 414

原创 对AlexNet深度卷积神经网络的学习随记

自己用笔记本跑的Alexnet,笔记本配置:只可惜自己的本子不支持gpu,跑的结果太吓人了。trainning on cpuepoch:1, loss:0.0122, train_acc:0.417, test_acc:0.711, time:11123.8 sec--------3.08hepoch:2, loss:0.0056, train_acc:0.734, test_ac...

2019-10-07 20:24:21 262

转载 卷积神经网络的反向传播

转载:https://www.cnblogs.com/charlotte7

2019-10-06 13:57:45 170

转载 pytorch.nn.Module类详解

使用Module类来自定义网络层https://blog.csdn.net/qq_27825451/article/details/90705328使用Module类来自定义模型https://blog.csdn.net/qq_27825451/article/details/90550890多种定义损失函数的方法https://blog.csdn.net/qq_27825...

2019-09-23 17:43:06 619

原创 k折-交叉验证-展示过程

先定义一个k交叉取训练集数据函数:def get_k_fold(k,i,X,y): assert k> 1 fold_size = X.shape[0]//k X_train,y_train = None,None for j in range(k): ix = slice(j * fold_size ,(j+1) * fold_size)...

2019-09-21 01:03:38 746

原创 奇异值分解及其应用(转载)

转载:https://www.cnblogs.com/sumuncle/p/5652728.html

2019-08-25 08:41:35 100

原创 PCA数学原理 (转载https://www.cnblogs.com/sumuncle/p/6256334.html)

PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。网上关于PCA的文章有很多,但是大多数只描述了PCA的分析过程,而没有讲述其中的原理。这篇文章的目的是介绍PCA的基本数学原理,帮助读者了解PCA的工作机制是什么。当然我并不打算把文章写成纯数...

2019-08-24 19:00:09 150

原创 线性空间、对象\向量、矩阵\坐标系、线性变换

矩阵是线性空间中的线性变换的一个描述。在一个线性空间中,只要我们选定一组基,那么对于任何一个线性变换,都能够用一个确定的矩阵来加以描述. 变换:运动-->跃迁 ; 一组基-->坐标系 ; 线性变换:一组基+一个矩阵,线性变化可以由选取不同的基+一个确定的矩阵来描述。对于一个线性变换,只要你选定一组基,那么就可以找到一个矩阵来描述这个线性变换。换一组基...

2019-08-24 18:29:13 548

转载 scikit-learn进行数据预处理

数据预处理sklearn.preprocessing包:preprocessing.Binarizerpreprocessing.FunctionTransformerpreprocessing.Imputerpreprocessing.KernelCentererpreprocessing.LabelBinarizerpreprocessing.LabelEncoderpr...

2019-07-13 08:02:59 1835

转载 机器学习的数学基础

高等数学1.导数定义:导数和微分的概念$f'({{x}{0}})=\underset{\Delta x\to 0}{\mathop{\lim }},\frac{f({{x}{0}}+\Delta x)-f({{x}_{0}})}{\Delta x}$ (1)或者:$f'({{x}{0}})=\underset{x\to {{x}{0}}}{\mathop{\lim }},\fr...

2019-06-25 01:09:35 953

原创 model trainning 模型训练

学习笔记模型的理解,构建、神经网络的训练使用封闭方程来求解,获得模型在当前训练集上最优的参数==》在训练集上使得损失函数达到最小值时模型的参数使用迭代优化的方法,梯度下降(GD),在训练集上,逐渐的调整模型参数,而获得最小的损失函数,最终参数收敛到和封闭方程求解一样得到相同的值。...

2019-06-21 18:14:36 3041

转载 sklearn -API文档

所有函数和类的确切API,由docstrings给出。API会为所有功能提供预期类型和允许的功能,以及可用于算法的所有参数。原文链接 :http://scikit-learn.org/stable/modules/classes.html译文链接 :http://cwiki.apachecn.org/pages/viewpage.action?pageId=10030193...

2019-06-12 18:19:17 893

转载 期望、方差、标准差、协方差、相关系数、协方差矩阵、残差、残差平方和(SSE)、标准化残差,残差分析

通过学习,结合网络上搜索,把相关概念整理了一下。1、期望(均值、数学期望) 期望是 度量数据的集中趋势的一个重要指标,是研究随机变量的一个重要数字特征 离散型 随机变量Xi,其对因的概率P(Xi),则有XiP(Xi)的和成为离散随机变量的期望。 X...

2019-06-01 17:45:47 24383 1

转载 重采样:resample

resample(rule, how=None, axis=0, fill_method=None, closed=None, label=None, convention='start', kind=None, loffset=None, limit=None, base=0, on=None, level=None)

2019-05-24 23:44:47 1415

原创 DateOffset:freq(频率)字符串;季度时期频率

period 的freq 频率

2019-05-24 12:41:17 1076

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除