自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(32)
  • 收藏
  • 关注

原创 卷积核、特征图可视化

这里建议使用一个训练好的模型进行可视化,这样可视化出来的结果可以帮助观察出一些潜在的特性的(我这里采用的是AlexNet预训练模型)。这里简单进行一个梳理:第一层卷积核:torch.Size([64, 3, 11, 11]),输出通道数:64, 对应卷积核的数量输入通道数:3, 对应卷积核的通道数卷积核宽:11,卷积核高:11单通道卷积核可视化多通道卷积核可视化见下图:代码如下:补充操作运行代码后会生成一个results文件,接下来 执行如下代码: 点击如

2022-06-19 19:31:55 3385 8

原创 python目录,文件相关操作

训练模型相关数据文件读取操作

2022-06-18 16:49:25 245

原创 AlexNet论文解读以Pytorch实现(含论文训练细节)

alexnet论文详解,卷积核,特征图可视化,pyqt5可视化界面,如何调用,更改预训练模

2022-05-04 19:50:01 2517 3

原创 划分数据的方法

划分数据的方法1、分割数据集(图片)进行存放1、分割数据集(图片)进行存放首先整体目录是这样的以下是运行代码的结果分割后的图片名保持一致下面是代码(可能比较繁琐,并没有进行优化)import osimport randomfrom PIL import Imagefrom PIL import ImageFileImageFile.LOAD_TRUNCATED_IMAGES = Truedef division_train_eval(data_path): list =

2022-05-03 19:46:09 621

原创 Pytorch数据封装进入网络前的几种方式

Pytorch数据封装进入网络前的几种方式1、利用Pytorch的库方法1、利用Pytorch的库方法简单来说就是使用datasets.ImageFolder与torch.utils.data.DataLoader这两种方法。数据存放格式需要如下如下是代码示例1、数据处理train_transforms = transforms.Compose([ transforms.Resize((64, 64)), transforms.RandomSizedCrop(48),

2022-04-17 18:18:40 586

原创 Variable与Tensor合并后,关于训练、验证的相关变化

卷积神经网络实战——表情识别(Pytorch)    这里作一下申明,之前对于神经网络的搭建解释的不够全面,这里进行补充,训练过程的代码可能太过繁琐不好理解,现在进行补充和修改,然后关于数据集用的是阿里天池公开课里面的表情识别数据集。    变化的部分会以红色字体标出...

2022-04-17 15:50:10 881

原创 torch.max()的用法

torch.max的用法torch.max(Tensor,index)是求Tensor格式下的最大值包含两部分,一部分是最大值,另一部分是最大值的索引a = torch.randn(3,3)print(a)>>tensor([[ 0.4538, -0.0595, 0.6461], [-2.0434, 0.5453, -1.2888], [ 0.6211, -0.7173, 0.2639]]) #每列的最大值以及最大值的索引prin

2022-04-17 10:50:49 571

原创 卷积神经网络构建的python基础-详细理解(Pytorch)

卷积神经网络的构建-详细理解(Pytorch)一、python中的类1、python构建一个简单的类2、python中的self3、python中的__init__方法4、python中的继承(1)继承父类中_ _init_ _()方法一、python中的类    我们经常看见网络构建中包含如下结构class simpleconv(nn.Module): def __init__(self, nclass): ...

2022-04-16 17:47:06 2477 1

原创 卷积神经网络实战——表情识别(Pytorch)超详细理解,含Pyqt5的可操作界面

卷积神经网络实战——表情识别前面六篇文章详细介绍了神经网络的基础,下面就一个简单的识别案例对前六章进行一个总结(可能有人对前六章在具体的网络中是干什么的有疑惑)。

2022-03-13 20:44:16 6791 21

原创 神经网络数据增强transforms的相关操作(持续更新)

transforms的相关操作(Pytorch)一、图像的相关变化1、格式转换(1)transforms.ToTensor()(2)transforms.ToPILImage()1、图像大小(1)一、图像的相关变化1、格式转换(1)transforms.ToTensor()可将PIL格式、数组格式转换为tensor格式img_path = "E:\expression_recognition\\2.jpg"img = Image.open(img_path) # #数组类型PIL类型都可a1

2022-03-12 16:33:36 10988

原创 PIL,cv2读取类型及转换,以及PIL,numpy,tensor格式以及cuda,cpu的格式转换

PIL,cv2读取类型,以及PIL,numpy,tensor格式以及cuda,cpu的格式转换1、PIL,cv2读取数据图片以及之间的转换2、PIL,数组类型以及tensor类型的转换1、PIL,cv2读取数据图片以及之间的转换这里先列个表格方便理解清楚:cv2PIL读取a=cv2.imread()a=Image.open()读取类型数组类型PIL类型读取颜色通道BGRRGB读取尺寸排列(H,W,C)(W,H,C)显示图片cv2.imsh

2022-03-12 09:55:34 12685 2

原创 神经网络中view(),torch.flatten(),torch.nn.Flatten()详解

神经网络view(),torch.flatten(),torch.nn.Flatten()1、view()2、torch.nn.Flatten()3、torch.flatten()在神经网络中经常看到view(),torch.flatten(),torch.nn.Flatten()这几个方法。这几个方法一般用于改变tensor的形状。为日后方便使用下面就一一透彻的理解一下。1、view()view()的原理很简单,其实就是把原先tensor中的数据进行排列,排成一行,然后根据所给的view()中的参数

2022-02-23 11:22:27 11040 4

转载 数据挖掘Fp-tree

关于数据挖掘生成频繁模式树算法FP-tree@长弓射大狗已经很详细了,这里给出链接。链接

2022-02-22 15:06:28 111

原创 卷积神经网络的深入理解-评测指标篇(PR曲线,ROC曲线,AUC面积,IOU,AP含实例)

卷积神经网络的深入理解-评测指标篇绪论什么是评测指标?分类任务评测指标1、准确率/召回率/精确度/F1-score2、Precision/Recall(P-R)曲线3、ROC曲线那么该选择PR曲线还是ROC曲线呢?4、AUC面积回归任务评测指标绪论这一篇主要是介绍一下模型的评测指标,与上几篇文章一样都会持续更新。什么是评测指标?评测指标是用来定量衡量模型的性能的,是作为各种方法比较的一个标准。评测指标可以分为分类任务的评测指标和回归任务的评测指标下面会详细介绍两种任务的评测指标。分类任务评测指

2022-01-19 17:07:09 7079

原创 卷积神经网络的深入理解-最优化方法(梯度下降篇)(持续更新)

卷积神经网络的深入理解-最优化方法(梯度下降方法)(持续更新)一、更新方向1、随机梯度下降SGD2、动量法3、Nesterov accelerated gradient法(NAG法)二、更新学习率1、Adagrad法三、更新学习率+更新方向1、Adam法说起最优化方法,我们首先要知道优化目标是什么,优化目标有凸函数和非凸函数两种,而我们要尽可能的寻找相对小的值凸函数全局最小值=局部最小值非凸函数包含许多局部最小值那么更新方式有几种呢,就如我们下山一样,取决于我们所走的方向和每一步所走的距离,即学

2022-01-19 12:07:16 2850

原创 卷积神经网络的深入理解-正则化方法篇

卷积神经网络的深入理解-正则化方法篇正则化方法(持续补充)一、显式正则化方法1、模型集成2、Dropout技术(神经元)3、参数正则化方法二、隐式正则化方法正则化方法(持续补充)为防止网络模型出现过拟合这种情况,网络训练中引入了正则化方法。一、显式正则化方法包含对网络结构、损失函数的修改,模型使用方法的调整1、模型集成模型集成包含两部分:1、训练多个模型进行结果融合;2、多次使用不同的数据(训练集测试集选择)训练模型进行结果融合。2、Dropout技术(神经元)训练时按概率p随机丢弃部分

2022-01-19 11:46:12 3389

原创 卷积神经网络的深入理解-优化目标(损失函数)篇

卷积神经网络的深入理解-优化目标(损失函数)篇优化目标-损失函数(持续补充)一、分类任务损失1、0-1损失2、KL散度 & 交叉熵损失(cross entropy loss)& softmax loss(1)信息熵(2)KL散度(相对熵)(3)交叉熵损失(cross entropy loss)那么为什么很多网络模型中使用交叉熵作损失函数呢?(4)Softmax 损失函数(Softmax loss)二、回归任务损失1、L1/L2-loss & Huber loss & smoo

2022-01-19 11:29:42 5170

原创 卷积神经网络的深入理解-归一化篇(Batch Normalization具体实例)

卷积神经网络的深入理解-归一化篇标准化/归一化(神经网络中主要用在激活之前,卷积之后)(持续补充)归一化在网络中的作用1、线性归一化(进行线性拉伸,可以增加对比度)2、零均值归一化((像素值-均值)/方差)3、Batch Normalization(批标准化方法)Batch Normalization的好处(提高训练速度,稳定模型训练):Batch Normalization的缺点及改进4、其它归一化方法标准化/归一化(神经网络中主要用在激活之前,卷积之后)(持续补充)归一化在网络中的作用1、去除量纲

2022-01-19 11:17:06 6900

原创 卷积神经网络的深入理解-基础篇(卷积,激活,池化,误差反传)

卷积神经网络的深入理解-基础篇一、卷积(convolution)1、无padding时2、有padding时3、卷积与全连接通道数(一般一张彩色图像为三通道RGB)二、激活(激活函数)(持续补充)代码块(做图的代码):1、Sigmoid2、tanh3、ReLU4、Leaky ReLU三、池化(池化层)四、全连接五、误差反传之前对MP模型、单层感知器、多层感知器(BP)的基础进行了理解,接下来写一下对卷积神经网络的理解。卷积神经网络(CNN)由卷积(convolution), 激活(activation),

2022-01-19 11:09:12 3229

原创 深度学习深入理解——介绍

卷积神经网络的深入理解由于内容比较多,且要持续更新,这篇博客是一个总的目录。这里简单对博客进行一下说明,博客包含很多内容,除了对卷积过程的理解,还详细理解了损失,正则化,梯度更新,模型评测指标等方法,并会持续更新总结相关方法,内容比较多,如有错误请大家及时指正。有些公式是用PPT画的(之前不会用CSDN的公式编辑器),之后会慢慢替换...

2022-01-19 10:53:19 331

原创 MP模型、单层感知器、多层感知器的理解

神经网络基础神欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入神欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Mark

2021-10-20 18:47:43 7543

原创 为什么模型训练要采用梯度下降

梯度下降1、什么是梯度1、变化率最快的方向对于一元函数来说(这里X0处左右极限存在且相等)对于多元函数来说关于梯度下降,相信很多小伙伴都知道,模型训练中梯度方向是函数变化率最快的方向,这是用于优化模型的一个重要原因。但是梯度方向为什么是函数变化率最快的方向?相信很多人不知道,这里是我参照B站上深度之眼的一篇文章给出自己的理解,也希望自己在深度学习这条路上走的更远。1、什么是梯度从微积分层面上来说梯度就是函数求导,对于一元函数来说梯度就是导数:那么多元函数便是偏导数了:1、变化率最快的方向对于

2021-10-15 18:20:40 1008

原创 Kaggle cycleGan数据集

cycleGan数据集链接:https://pan.baidu.com/s/1wIkbUAeZ1jJnTeiSLd3veQ提取码:025u

2021-08-30 09:49:38 366

原创 模型速度与计算量分析

模型速度与计算量分析模型速度与计算量分析这里介绍两个工具:1、Pytorch自带的API:torch.autograd.profiler,分析每个算子的速度2、flops-counter:计算参数量和MAC(计算卷积神经网络中参数的数量和打印给定网络的每层计算成本)1、torch.autograd.profilertorch.autograd.profiler.profile(enabled=True,use_cuda=False,record_shapes=False,with_flops=Fa

2021-08-10 15:11:13 834 1

原创 模型结构可视化分析

模型结构可视化分析很多时候需要得知自己所构建模型的结构,参数,所占存储容量等,下面介绍几个可视化的参数工具1、pytorch-summary(包含每一层的输入输出形状,参数量,以及所占存储量大小)(1)pip install torchsummary 安装相关库(2)举例说明:import torchimport torch.nn as nnimport torch.nn.functional as Fimport numpy as npclass simpleconv3(nn.Modu

2021-08-10 14:01:51 1057 6

原创 简单的批量数据增强(采用pillow库)

简单的批量数据增强实现目标:1、读取文件中所有的图片。2、将图片化为 256*256大小。3、对图像进行翻转增强。4、将图片重命名、创建并保存在指定文件夹下。首先先来看一下文件目录一、读取文件中所有图片import osfrom PIL import Image#路径:root_dir:存放5个图片文件夹的文件路径#路径:new_root: 数据增强后存放的位置路径root_dir = r"D:\xuexi\python\python\practical-training\day1

2021-07-14 18:50:45 550

原创 数据挖掘ID3算法详解

ID3算法例:设网球俱乐部有打球与气候条件的历史统计数据如下表表示。其中,描述气候的条件属性:“天气”、“温度”、“湿度”、“风力”,分类属性:“是”、“否”。表示在当时的气候条件下是否适宜打球的两种类别。请构造关于气候条件与是否适宜打球的决策树。样本id天气温度湿度风力类别X1晴高大无否X2晴高大无否X3云高大无是X...

2020-04-17 12:35:29 5339 2

原创 Python-机器学习——谁都能看懂的一元线性回归,

机器学习------一元线性回归用Python实现一元线性回归,求出披萨直径为20,30,40的价格。一元线性回归感觉比较简单,为更好的分块没有用函数。详解见代码注释。**import numpy as npimport matplotlib.pyplot as pltfrom sklearn.linear_model import LinearRegression#首先创建一个坐标...

2020-04-02 20:06:24 219

原创 数据挖掘-------Close算法(详细过程)

随着数据库容量的增大,重复访问数据库导致性能低下,为减少数据库的扫描次数以及候选集空间占用引入两个算法:Close算法与FP-树算法:一、Close算法Close算法的思想:一个频繁闭合项目集的所有闭合子集一定是频繁的,一个非频繁项目集的所有闭合超集一定是非频繁的。我的想法是这样的,给出例子的同时引出定理定义。例:给出样本数据库。TIDItemset1A,B,C...

2020-04-02 13:12:58 6701 9

原创 面向对象B程序设计---(装饰者模式)

面向对象B程序设计—(装饰者模式)装饰者模式比较简单,接下来提供一个手抓饼的实现代码。###### 1.Grabthecake .java//抽象组件:手抓饼public abstract class Grabthecake {//抽象的方法public abstract double Cake();}###### 2.ConcreteCake1 .java//具体组件/...

2020-04-01 15:57:15 163

原创 支持度,频繁项目集、置信度、关联规则、强关联规则、Appriori

关联规则挖掘与算法一、事务数据库:二、支持度与频繁项目集:如表所示交易数据库,其项集 I={a,b,c,d,e},T购买的商品t1a,b,c,dt2b,c,et3a,b,c,et4b,d,et5a,b,c,d1、支持度:例:{a,b}在D上的支持度为:3/5{b,d}在D上的支持度为:3/52、频繁项目集(1)频繁项...

2020-03-22 12:50:10 15628 5

原创 MatLab linspace

MatLab linspace的使用linspace(x,y,n):x:起始元素;y:终止元素;n:元素的个数

2020-03-17 18:21:43 1630

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除