深度学习
卷了个积
机器学习、深度学习爱好者
展开
-
电荷负载分解(NILM)评价指标代码详解
有关NILM中的评价指标的解释请看我们另外一篇博文 ,下面简单解释一下代码实现,代码为python版本。import numpy as npdef tp_tn_fp_fn(states_pred, states_ground): tp = np.sum(np.logical_and(states_pred == 1, states_ground == 1),axis = 0)...原创 2018-08-06 08:30:57 · 3971 阅读 · 6 评论 -
pytorch 卷积填充“same”实现(附代码)
pytorch 中卷积的padding = ‘same’最近在用pytorch做一个项目,项目中涉及到用卷积部分,平时较常用的框架是tensorflow,keras,在keras的卷积层中,经常会使用到参数padding = ‘same’,即使用“same”的填充方式,但是在pytorch的使用中,我发现pytorch是没有这种填充方式的,自己摸索了一段时间pytorch的框架,下面是用pyt...原创 2018-08-06 20:11:22 · 9325 阅读 · 7 评论 -
Batch generator 批生成器(附代码)
深度学习中经常用到的一个技巧是使用批训练,这样的好处是可以减少显存的资源占用,对训练的结果也有一定的影响。 下面简单编写一个批量数据生成器:import random import numpy mode = 0x = np.arange(100)### 假设这个为featuresy = np.arange(100) ########## 假设这个为labelsdef ba...原创 2018-07-21 21:56:36 · 3962 阅读 · 0 评论 -
深度学习打乱数据的方法
在深度学习中,我们对数据集进行处理,放到神经网络之前,往往需要先打乱数据集,如果数据集是ndarray(numpy)数据,属性(features)和标签(labels)在同一个array的话,也就是labels是在数据的最后一个维度,前几个维度均为数据的属性,这样我们可以通过numpy来打乱数据集。 代码如下:import numpy as npdataset = np.load(fi...原创 2018-07-16 22:13:55 · 4234 阅读 · 0 评论 -
卷积神经网络中的padding理解
首先看一下以下代码吧!from keras.layers import Conv2D,Dense,Flattenfrom keras.models import Sequentialmodel = Sequential()model.add(Conv2D(filters = 32,kernel_size = [3,3],strides = [1,1],padding = 'same...原创 2018-07-23 12:02:20 · 48131 阅读 · 12 评论 -
非侵入式电荷负载分解(Non-intrusive load monitoring,NILM)---- NILMTK(安装教程)
前段时间在做“非侵入式电荷负载分解”的项目原创 2018-07-21 10:42:54 · 12642 阅读 · 18 评论 -
keras、pytorch模型和参数的保存
这篇博文主要简单介绍深度学习框架keras和pytorch的模型保存方法和模型参数保存方法。keras:import kerasform keras.models import load_model,Sequential,Model,Inputfrom keras.layers import Dense,........######model = Sequential()model...原创 2018-07-15 21:26:23 · 3134 阅读 · 0 评论 -
NILM-组合优化算法 combinationrial optimization(附代码)
这里简单介绍以下电荷负载分解实验中的组合优化算法,这里先只贴代码,后面会对其进行相应的解读。from __future__ import print_function, divisionfrom warnings import warnimport pandas as pdimport numpy as npimport pickleimport copyfro...原创 2018-07-21 13:56:12 · 9981 阅读 · 12 评论