自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(57)
  • 资源 (2)
  • 收藏
  • 关注

转载 [整理]Pytorch指定GPU的方法

指定GPU

2023-07-05 16:51:33 5400

原创 列表 元组 集合 字典

字符串不可修改的字符的序列列表是可修改的任何类型的数据的序列 ,使用方括号[ ],列表为有序容器,放进去的每一个数据在列表中都有一个编号,可以通过编号访问对应数据元组是不可修改的任何类型的数据的序列,可以像列表一样表示任何类型的数据序列,又能像字符串一样,不能对整个元组和其中的元素做修改。使用圆括号(,)集合是无序的不重复元素容器,与列表相似,均由一系列元素组成,可以动态添加或删除元素,使用大括号{,}字典:可以用名字作为索引访问其中的数据,用键做索引存储数据的集合,类似列表用整数做索引一样

2021-02-18 18:35:20 218

转载 pytorch 保存和加载模型

保存和加载模型的时候,配对的函数:对于仅保存state_dict()的方式,那保存和加载模型的方式为:保存:torch.save(model.state_dict(), PATH)加载:model.laod_state_dict(torch.load(PATH))一般加载模型是在训练完成后用模型做测试,这时候加载模型记得要加上model.eval(),把模型切换到evaluation模式,这时候会调整dropout和bactch的模式。对于保存和加载整个模型的情况:torch.save(mo.

2020-08-14 16:21:39 226

转载 register_hook

1.Pytorch中autograd以及hook函数详解https://oldpan.me/archives/pytorch-autograd-hook2.知乎知识内容https://www.zhihu.com/question/61044004作者:李斌链接:https://www.zhihu.com/question/61044004/answer/183682138来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。首先明确一点,有哪些hook?.

2020-08-10 17:06:18 652

转载 Pytorch 为什么每一轮batch需要设置optimizer.zero_grad

1.zero_grad()函数的应用: 在pytorch中做随机梯度下降时往往会用到zero_grad()函数,相关代码如下。 optimizer.zero_grad() # 将模型的参数梯度初始化为0 outputs=model(inputs) # 前向传播计算预测值 loss = cost(output...

2020-08-10 17:00:07 812

转载 torch.utils.data.DataLoader使用方法

部分转发https://www.cnblogs.com/demo-deng/p/10623334.htmlPyTorch 中的数据类型 torch.utils.data.DataLoader数据加载器,结合了数据集和取样器,并且可以提供多个线程处理数据集。在训练模型时使用到此函数,用来把训练数据分成多个小组,此函数每次抛出一组数据。直至把所有的数据都抛出。就是做一个数据的初始化。""" 批训练,把数据变成一小批一小批数据进行训练。 DataLoader就是用来包装所使用的

2020-06-17 12:00:25 8898 2

转载 Matplotlib库

箱线图boxplot——展示数据的分布https://www.cnblogs.com/wyy1480/p/9526264.html#https://blog.csdn.net/weixin_42969619/article/details/97141055#barimport matplotlib.pyplot as pltX = [0.3, 1.7, 4, 6, 7]height = [5, 20, 15, 25, 10]plt.bar(X, height, width=0.6,

2020-06-16 16:07:48 165

转载 ndim 与 shape的区别

https://blog.csdn.net/weixin_34269583/article/details/93859740

2020-06-16 14:29:39 788

转载 Python问题定位:TabError: Inconsistent use of tabs and spaces in indentation

Python问题定位:TabError: Inconsistent use of tabs and spaces in indentation这个错误是说你用了tab键作缩进了,因为在python不像C/C++里用大括号来区分程序块,而是用缩进, 所以缩进很重要你把Tab都换成空格就好了可以把代码放到Notepad++上,然后 勾选 视图->显示符号->显示空格与制表符,如果代码中显示的由最左边的箭头形式的话,说明有tab键替换方式:在NotePad++中,点击 编辑-&gt..

2020-06-01 10:12:12 267

转载 pytorch环境配置&安装&问题解决

错误解决 HTTP 000 CONNECTION FAILED for url (Ubuntu 下)

2020-04-27 10:25:22 287

转载 绝对路径和相对路径import文件和__init__.py的作用

__init__.py的作用:在文件夹中包含一个__init__.py,Python就会把文件夹当作一个package,里面的py文件就能够在外面被import了。在Python中以绝对路径或者相对路径导入文件(或模块)的方法...

2020-02-25 09:51:21 1315

转载 多维张量

参照网页: 张量(tensor)是什么? 多维张量的几何理解 TensorFlow:使用tf.reshape函数重塑张量 tensorflow笔记:tf.reshape的详细讲解整理1.什么是张量(tensor)深度学习框架中的一个核心组件,后续的所有运算和优化算法几乎...

2020-01-14 16:08:59 1988 2

转载 GAN-李宏毅

课程链接https://www.bilibili.com/video/av24011528/?p=1知乎笔记Introduction李宏毅GAN教程(1)Basic Theory李宏毅GAN教程(2)改进GAN -WGAN怎样训练一个GAN?一些小技巧让GAN更好的工作Condition GAN李宏毅GAN教程(5)Condition GAN李宏毅GAN教程(6)...

2019-10-29 17:47:17 171

转载 极大似然估计

目录贝叶斯决策问题引出重要前提极大似然估计求解极大似然函数极大似然估计的例子数学之美_深入浅入详解的最(极)大似然估计贝叶斯决策 首先来看贝叶斯分类,我们都知道经典的贝叶斯公式: p(w):为先验概率,表示每种类别分布的概率; :类条件概率,表示在某种类别前提下,某事发生的概率; 为后...

2019-10-28 17:18:58 988

转载 正则化实现方法tf&keras

目录正则化:Tensorflowkeras实现开发新的正则项正则化:保留所有变量,但减小特征变量的数量级。这种处理方法更合适,因为实际所有变量对结果都有一定贡献,只是有些变量对结果的影响很小。正规化背后的思路:这些参数的值越小,通常对应于越光滑的函数,也就是更加简单的函数。就不易发生过拟合的问题。TensorflowTensorFlow中正则化的实现Tenso...

2019-10-24 16:46:43 1386

转载 梯度下降之随机梯度下降 -minibatch 与并行化方法

问题的引入:考虑一个典型的有监督机器学习问题,给定m个训练样本S={x(i),y(i)},通过经验风险最小化来得到一组权值w,则现在对于整个训练集待优化目标函数为:其中为单个训练样本(x(i),y(i))的损失函数,单个样本的损失表示如下:引入L2正则,即在损失函数中引入,那么最终的损失为:注意单个样本引入损失为(并不用除以m):正则化的解释这里的正则化项可...

2019-10-24 10:44:04 201

转载 权重衰减(weight decay)/正则化与学习率衰减(learning rate decay)

推荐:深度学习总结(九)——正则化1. 权重衰减(weight decay)L2正则化的目的就是为了让权重衰减到更小的值,在一定程度上减少模型过拟合的问题,所以权重衰减也叫L2正则化。正则项惩罚系数,会惩罚节点的权重矩阵,如果我们的正则项系数很高以至于一些权重矩阵几乎等于零。1.1 L2正则化与权重衰减系数L2正则化就是在代价函数后面再加上一个正则化项:其中C0代表原始...

2019-10-24 09:28:22 1433

转载 正则化

推荐:https://blog.csdn.net/jinping_shi/article/details/52433975推荐:ML中的过拟合问题1.欠拟合/过拟合现象1.1 现价预测问题(回归问题)、、三种方法: 线性拟合:很多数据未拟合 二次拟合: 四次拟合:过拟合1.2 分类问题--第2个图比较好不知道你之...

2019-10-23 12:11:08 2633

转载 向量L0、L1、L2、L∞范数,矩阵F-范数---转

一、向量范数向量范数表征向量空间的大小。 二、矩阵范数————————————————版权声明:本文为原文博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。本文链接:https://blog.csdn.net/qq_36512295/article/details/88824622...

2019-10-17 17:14:00 664

转载 lambda函数

lambda函数又称为匿名函数,即没有函数名的函数lambda x,y:x+y#x,y是函数的两个变量,位于冒号的左边,冒号右边的表达式是函数的返回值。add =lambda x,y:x+yadd<function <lambda> at 0x7f0f0dd855f0>add(1,2)3等价于def add(x,y): return...

2019-10-02 13:59:01 1435

转载 tqdm使用

https://www.jb51.net/article/166648.htm

2019-09-18 17:58:44 411

转载 Keras中间层输出的两种方式,及特征图可视化

训练好的模型,想要输入中间层的特征图,有两种方式:1. 通过model.get_layer的方式。创建新的模型,输出为你要的层的名字。创建模型,debug状态可以看到模型中,base_model/layers,图中红框即为layer名字,根据你想输出的层填写。最后网络feed数据后,输出的就是中间层结果。2. 通过建立Keras的函数。from keras import...

2019-06-03 18:17:42 1751

转载 车牌识别

python车牌定位切割 + TensorFlow识别预测(更新多模型加载)TensorFlow车牌识别完整版(含车牌数据集)数据集路径正确的,程序能够顺利运行关于HyperLPR车牌检测使用笔迹使用opencv进行车牌提取及识别...

2019-05-30 08:08:58 153

转载 人脸识别

人工智能小例子(二)-基于keras+openCV的人脸识别有github程序基于keras的人脸识别用pyqt5构建人脸识别界面

2019-05-22 06:15:50 107

转载 python/tensorflow安装

很久之前安装过,这几天需要重新安装,发现重新搜资料很麻烦,抽空整理下!!1.python安装2.tensorflow安装3.不同版本python共存问题

2019-05-22 06:10:38 278

转载 Keras/TensorFlow 报错:CUDA_ERROR_OUT_OF_MEMORY 解决办法

Keras/TensorFlow 报错如下:failed to alloc 2097152 bytes on host: CUDA_ERROR_OUT_OF_MEMORYcould not allocate pinned host memory of size:xxxxx解决办法:TensorFlow 默认贪婪的占用全部显存,所以有时候显存不够用,添加如下代码,让显存按需分配...

2019-05-22 06:08:45 1226

转载 旋转机械故障诊断公开数据集整理

旋转机械故障诊断公开数据集整理众所周知,当下做机械故障诊断研究最基础的就是数据,再先进的方法也离不开数据的检验。笔者通过文献资料收集到如下几个比较常用的数据集并进行整理。鉴于目前尚未见比较全面的数据集整理介绍。数据来自原始研究方,笔者只整理数据获取途径。如果研究中使用了数据集,请按照版权方要求作出相应说明和引用。在此,公开研究数据的研究者表示感谢和致敬。如涉及侵权,请联系我删除(78745226...

2019-04-27 16:43:38 9713 3

转载 命令行解析

tf.app.flags.DEFINE_string()和tf.app.flags.FLAGS/使用argparse包import argparseparser = argparse.ArgumentParser()parser.add_argument( '--learning_rate', type=float, default=0.01, ...

2019-04-24 06:18:42 526

转载 batch-normalization

目录1.what is BN2. Howto Batch Normalize?[]3. Whereto use BN?4. WhyBN?5. Whento use BN?1.what is BNbatch normalization嘛,就是“批规范化” 在每次SGD时,通过mini-batch来对相应的activation做规范化操作,使得结果(输出信号各...

2019-04-18 07:32:10 131

转载 xmind破解

XMind中文版破解版|Xmind注册码|xmind破解版简述-xmind破解

2019-04-16 06:23:19 941 2

转载 python 格式输出(%用法和format)

今天修改程序,比较纠结用哪个,搜资料整理一下。参考网页:python基础_格式化输出(%用法和format用法)format()用法相对于基本格式%的用法,功能要强大很多。将字符串当成模板,通过传入的参数进行格式化,并且使用大括号{}作为特殊字符代替%1.%用法(1)整数输出 %o -八进制; %d-十进制; %x-16进制#correctprint("the num...

2019-04-11 18:55:27 6145

转载 model ensemble

github 程序-Keras-CNN-multi-model-ensemble-with-votingimport kerasfrom keras.models import Sequentialfrom keras.layers import Dense, Dropout, Flatten, Conv2D, MaxPooling2D,AveragePooling2Dfrom ker...

2019-04-10 17:28:01 466 1

转载 高斯白噪声 python

numpy.random.normal()和numpy.random.randn()产生的都是高斯白噪声。计算信噪比也就是简单的对信号的乘方求和而已,例如如果你有信号x和噪声n,那么信噪比就是:信噪比,为有用信号功率(Power of Signal)与噪声功率(Power of Noise)的比。因此为幅度(Amplitude)比的平方:它的单位一般使用分贝,其值为十倍对数信号与噪声功...

2019-03-30 17:54:31 17674 3

转载 confusion matrix & F1 score

predict_class = model.predict(test_data, verbose=2)#model.predict输出的为数值,是实数,需要经过np.argmaxpredict_class = np.argmax(predict_class,axis=1)true_classes = np.argmax(test_label,axis=1)#将onehot label...

2019-03-26 10:57:03 1012

转载 深度学习--十折交叉验证

用scikit-learn来评价模型质量,为了更好地挑拣出结果的差异,采用了十折交叉验证(10-fold cross validation)方法。本程序在输入层和第一个隐含层之间加入20%Dropout采用十折交叉验证的方法进行测试。 # dropout in the input layer with weight constraint def create_mode...

2019-03-22 07:02:34 22154

转载 Python中的logging模块

https://blog.csdn.net/liuchunming033/article/details/39080457

2019-03-20 21:12:11 107

转载 Python命令行解析argparse常用语法

python中的命令行解析最简单最原始的方法是使用sys.argv来实现,更高级的可以使用argparse模块(从python 2.7开始被加入到标准库中)基本使用#导入argparse模块import argparse#创建解析器对象ArgumentParser,可以添加参数#description:描述程序#parser=argparse.ArgumentParser(de...

2019-03-20 20:30:12 187

转载 SENET&CBAM

https://mp.csdn.net/posteditSENET一个feature map经过一系列卷积池化得到的feature map,每个通道的重要程度还是不一样的,也就是说每个通道其实还应该有一个重要性权值才行,然后每个通道的重要性权值乘以每个通道原来的值,就是我们求的真正feature map,这个feature map不同的通道重要性不一样(可能权值大的乘以原来的数要大些)...

2019-03-11 06:57:05 2731

转载 Keras层的实现

keras中文文档https://keras.io/zh/layers/recurrent/keras源码分析https://www.jianshu.com/p/8dcddbc1c6d4实现自己的Keras层https://blog.csdn.net/DawnRanger/article/details/78307244所有keras层的基类:Layerkeras所...

2019-03-06 19:01:10 813

转载 LSTM原理

LSTM原理f:遗忘门forget gatei:输入门input gateo:输出门output gateg:input modulation gate ~ctTensorFlow中的LSTM源码理解与二次开发https://blog.csdn.net/LoseInVain/article/details/79642721PLSTM的T...

2019-03-06 17:16:21 691

stm32 中文datasheet

在此网站,看到了英文的datasheet,我这里正好有中文版的资料,仅供大家参考

2011-02-25

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除